Loading [MathJax]/extensions/tex2jax.js

0

3
3

文字

分享

0
3
3

網路匿名制度如何造成責任分散「道德解離」?從南韓「N號房」性犯罪事件談起

Vicky Ho_96
・2020/04/10 ・2000字 ・閱讀時間約 4 分鐘 ・SR值 601 ・九年級

  • 文/何晨瑋
    一個幼教系雙主修心理諮商的大學生,致力挑戰大眾的刻板印象。文章多以日常故事為基底,並透過心理學、哲學等領域的角度,重新反思生活與生命的核心價值。個人部落格
目前有兩份相關提案持續進行中。圖/截圖自青瓦台請願網

近期南韓「N號房」性虐待事件,引發全球高度關注。這起事件涉及 74 名女性遭到詐欺恐嚇等犯罪方式,被迫拍攝性虐待、性剝削的影片,且至少有 16 名未成年人,而最小的受害者年僅 11 歲。

這些影片在通訊軟體 Telegram 中不斷傳播,高達 26 萬名會員「付費」觀看相關的對話內容、照片及影片,引發韓國社會群起激憤,並連署要求政府公開「N號房」犯罪嫌疑人個資及長相照片、以及各群組全員個資。

然而,在事件揭露後,竟有匿名網友表示「我什麼都沒有做錯,只是付了錢進來觀看影片,為什麼要懲罰我?」等未加意識自身成為犯罪結構下的共犯言論。

本篇文章,將以社會心理學當中的道德解離(Moral disengagement),並更聚焦在理論機制中的責任分散(Diffusion of responsibility),來討論韓國「N號房」事件中,所顯示的網路性霸凌的盛行及道德淪喪。

-----廣告,請繼續往下閱讀-----

免除罪惡感的「道德解離」

心理學家班都拉 (Albert Bandura) 認為,人在進行/不進行或違反道德的行為,所引發的情緒反應,包括助人的成就感、違背道德的內疚等感受,都和道德行為的自我監控辯證過程有關。

人是否進行道德行為,和所帶來的情緒反應及自我譴責等息息相關。圖/pixabay

而一旦做出有違背道德的行為時,人會為了降低自我譴責、愧疚等負面情緒,會說服自己一般的道德標準不適用於特定環境;或忽視道德標準的存在,進而合理化自身不道德行為,形成道德解離

也就是說,道德解離是一種個體為自己面臨或違反道德行為做辯解和合理化的心理運作。2 其機制包含:道德論證(Moral justification)、委婉標示(Euphemistic labelling)、優勢對比(Advantageous comparison)、責任轉移(Displacement of responsibility)、責任分散(Diffusion of responsibility)、結果扭曲(Distortion of consequence)、非人性(Dehumanization)和責備歸因(attribution of blame)八種因素,這些因素與社會結構及環境相互關聯,並非獨立運作的3

網路的匿名性更加劇「責任分散」

責任分散是指當事件發生在群體中,隨著人數的增加,每個人所承擔的責任也在減少。其中在網路世界的「匿名性」,也提高責任分散的程度,此概念同為「旁觀者效應」的形成原因之一,也就是當旁觀者越多,則會越少人伸出援手

-----廣告,請繼續往下閱讀-----
強調加密且匿名的通訊軟體Telegram成為網路性霸凌的最大溫床。圖/needpix

根據韓國性剝削共同對策委員會的調查指出,「N號房」性剝削房間可能存在 100 個,一個房間同時最多有 3.5 萬人參與其中。這些參與者在強調高隱私的通訊軟體 Telegram 上,分別擁有不同「暱稱」,活躍於群組內觀看性虐待的影片、上傳所擁有的色情視頻,甚至參與言語性騷擾等。

「匿名性」使網路使用者認為其言行不必承擔任何責任,因此對話內容及行徑也趨向極端。在此惡性循環下,每個人所需承擔的道德及社會責任不但趨向分散,也弱化個人道德控制能力。3,4

數位人權,網路使用者共同的責任

根據 2019 年聯合國「國際消除對女性使用暴力日」(International Day for the Elimination of Violence against Women)公布5多國針對女性受暴的分析報告指出:

當前對女性威脅最嚴重的是網路性暴力、性勒索手法不斷翻新6,也說明網路匿名性所造成的責任分散,不斷使個人的道德責任被分散及削弱。

目前各國政府也積極推動人權行動計畫,其中數位人權議題也被放入其中討論,而身為社會大眾的我們,可以不點閱、不轉傳、不評論這些影片的內容,並提出檢舉,更重要的是不責怪受害者。

-----廣告,請繼續往下閱讀-----
身處為數位時代的我們應當注意人權的再現問題。圖/pexels

最後,南韓「N號房」事件所牽涉層面極廣,高達 74 位女性,更有多位未成年少女受害。除了反映著韓國文化中男女不平等的社會結構,還包含著以及分層階級明顯的權力關係等重要社會議題。本文討論的網路匿名性中的責任分散僅是眾多議題中的一個因素,不能直接化約為單一因素造成整起事件。議題的浮現引導我們更深入的了解與探討不同的議題。在思考上,需要多加注意的!

參考資料

  1. Bandura, A. (1991). Social cognitive theory of moral thought and action. In W. M. Kurtines, & J. L. Gewirtz (Eds.), Handbook of moral behavior and development: Theory, research, and applications (pp. 71-129). Hillsdale, NJ:Lawrence Erlbaum.
  2. 王志全、高三福(2019)。超競爭人格與反社會行為之關係:道德解離的調節效果。體育學報,52(3),355-367。
  3. Bandura, Albert (1999-08-01). “Moral Disengagement in the Perpetration of Inhumanities”. Personality and Social Psychology Review. 3 (3): 193–209.
  4. Bandura, Albert (2002-06-01). “Selective Moral Disengagement in the Exercise of Moral Agency”. Journal of Moral Education. 31 (2): 101–119.
  5. Bandura, A., Underwood, B., Fromson, M.E. (1975). “Disinhibition of aggression through diffusion of responsibility and dehumanization of victims”. Journal of Research in Personality. 9 (4): 253–269.
  6. Femicide: A global scourge
  7. 方念萱(2020)。網路性霸凌──那些受害於數位性別暴力裡的人們,尤其是女人。報導者
-----廣告,請繼續往下閱讀-----
文章難易度
Vicky Ho_96
12 篇文章 ・ 209 位粉絲
多以心理科普方式,討論時事等議題。

0

1
0

文字

分享

0
1
0
拆解邊緣AI熱潮:伺服器如何提供穩固的運算基石?
鳥苷三磷酸 (PanSci Promo)_96
・2025/05/21 ・5071字 ・閱讀時間約 10 分鐘

本文與 研華科技 合作,泛科學企劃執行。

每次 NVIDIA 執行長黃仁勳公開發言,總能牽動整個 AI 產業的神經。然而,我們不妨設想一個更深層的問題——如今的 AI 幾乎都倚賴網路連線,那如果哪天「網路斷了」,會發生什麼事?

想像你正在自駕車打個盹,系統突然警示:「網路連線中斷」,車輛開始偏離路線,而前方竟是萬丈深谷。又或者家庭機器人被駭,開始暴走跳舞,甚至舉起刀具向你走來。

這會是黃仁勳期待的未來嗎?當然不是!也因為如此,「邊緣 AI」成為業界關注重點。不靠雲端,AI 就能在現場即時反應,不只更安全、低延遲,還能讓數據當場變現,不再淪為沉沒成本。

什麼是邊緣 AI ?

邊緣 AI,乍聽之下,好像是「孤單站在角落的人工智慧」,但事實上,它正是我們身邊最可靠、最即時的親密數位夥伴呀。

當前,像是企業、醫院、學校內部的伺服器,個人電腦,甚至手機等裝置,都可以成為「邊緣節點」。當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。簡單來說,就是將原本集中在遠端資料中心的運算能力,「搬家」到更靠近數據源頭的地方。

-----廣告,請繼續往下閱讀-----

那麼,為什麼需要這樣做?資料放在雲端,集中管理不是更方便嗎?對,就是不好。

當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。/ 圖片來源:MotionArray

第一個不好是物理限制:「延遲」。
即使光速已經非常快,數據從你家旁邊的路口傳到幾千公里外的雲端機房,再把分析結果傳回來,中間還要經過各種網路節點轉來轉去…這樣一來一回,就算只是幾十毫秒的延遲,對於需要「即刻反應」的 AI 應用,比如說工廠裡要精密控制的機械手臂、或者自駕車要判斷路況時,每一毫秒都攸關安全與精度,這點延遲都是無法接受的!這是物理距離與網路架構先天上的限制,無法繞過去。

第二個挑戰,是資訊科學跟工程上的考量:「頻寬」與「成本」。
你可以想像網路頻寬就像水管的粗細。隨著高解析影像與感測器數據不斷來回傳送,湧入的資料數據量就像超級大的水流,一下子就把水管塞爆!要避免流量爆炸,你就要一直擴充水管,也就是擴增頻寬,然而這樣的基礎建設成本是很驚人的。如果能在邊緣就先處理,把重要資訊「濃縮」過後再傳回雲端,是不是就能減輕頻寬負擔,也能節省大量費用呢?

第三個挑戰:系統「可靠性」與「韌性」。
如果所有運算都仰賴遠端的雲端時,一旦網路不穩、甚至斷線,那怎麼辦?很多關鍵應用,像是公共安全監控或是重要設備的預警系統,可不能這樣「看天吃飯」啊!邊緣處理讓系統更獨立,就算暫時斷線,本地的 AI 還是能繼續運作與即時反應,這在工程上是非常重要的考量。

所以你看,邊緣運算不是科學家們沒事找事做,它是順應數據特性和實際應用需求,一個非常合理的科學與工程上的最佳化選擇,是我們想要抓住即時數據價值,非走不可的一條路!

邊緣 AI 的實戰魅力:從工廠到倉儲,再到你的工作桌

知道要把 AI 算力搬到邊緣了,接下來的問題就是─邊緣 AI 究竟強在哪裡呢?它強就強在能夠做到「深度感知(Deep Perception)」!

-----廣告,請繼續往下閱讀-----

所謂深度感知,並非僅僅是對數據進行簡單的加加減減,而是透過如深度神經網路這類複雜的 AI 模型,從原始數據裡面,去「理解」出更高層次、更具意義的資訊。

研華科技為例,旗下已有多項邊緣 AI 的實戰應用。以工業瑕疵檢測為例,利用物件偵測模型,快速將工業產品中的瑕疵挑出來,而且由於 AI 模型可以使用同一套參數去檢測,因此品管上能達到一致性,減少人為疏漏。尤其在高產能工廠中,檢測速度必須快、狠、準。研華這套 AI 系統每分鐘最高可處理 8,000 件產品,替工廠節省大量人力,同時確保品質穩定。這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。

這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。/ 圖片提供:研華科技

此外,在智慧倉儲場域,研華與威剛合作,研華與威剛聯手合作,在 MIC-732AO 伺服器上搭載輝達的 Nova Orin 開發平台,打造倉儲系統的 AMR(Autonomous Mobile Robot) 自走車。這跟過去在倉儲系統中使用的自動導引車 AGV 技術不一樣,AMR 不需要事先規劃好路線,靠著感測器偵測,就能輕鬆避開障礙物,識別路線,並且將貨物載到指定地點存放。

當然,還有語言模型的應用。例如結合檢索增強生成 ( RAG ) 跟上下文學習 ( in-context learning ),除了可以做備忘錄跟排程規劃以外,還能將實務上碰到的問題記錄下來,等到之後碰到類似的問題時,就能詢問 AI 並得到解答。

你或許會問,那為什麼不直接使用 ChatGPT 就好了?其實,對許多企業來說,內部資料往往具有高度機密性與商業價值,有些場域甚至連手機都禁止員工帶入,自然無法將資料上傳雲端。對於重視資安,又希望運用 AI 提升效率的企業與工廠而言,自行部署大型語言模型(self-hosted LLM)才是理想選擇。而這樣的應用,並不需要龐大的設備。研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。

但問題也接著浮現:要在這麼小的設備上跑大型 AI 模型,會不會太吃資源?這正是目前 AI 領域最前沿、最火熱的研究方向之一:如何幫 AI 模型進行「科學瘦身」,又不減智慧。接下來,我們就來看看科學家是怎麼幫 AI 減重的。

-----廣告,請繼續往下閱讀-----

語言模型瘦身術之一:量化(Quantization)—用更精簡的數位方式來表示知識

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。這其實跟圖片壓縮有點像:有些畫面細節我們肉眼根本看不出來,刪掉也不影響整體感覺,卻能大幅減少檔案大小。

模型量化的原理也是如此,只不過對象是模型裡面的參數。這些參數原先通常都是以「浮點數」表示,什麼是浮點數?其實就是你我都熟知的小數。舉例來說,圓周率是個無窮不循環小數,唸下去就會是3.141592653…但實際運算時,我們常常用 3.14 或甚至直接用 3,也能得到夠用的結果。降低模型參數中浮點數的精度就是這個意思! 

然而,量化並不是那麼容易的事情。而且實際上,降低精度多少還是會影響到模型表現的。因此在設計時,工程師會精密調整,確保效能在可接受範圍內,達成「瘦身不減智」的目標。

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。/ 圖片來源:MotionArray

模型剪枝(Model Pruning)—基於重要性的結構精簡

建立一個 AI 模型,其實就是在搭建一整套類神經網路系統,並訓練類神經元中彼此關聯的參數。然而,在這麼多參數中,總會有一些參數明明佔了一個位置,卻對整體模型沒有貢獻。既然如此,不如果斷將這些「冗餘」移除。

這就像種植作物的時候,總會雜草叢生,但這些雜草並不是我們想要的作物,這時候我們就會動手清理雜草。在語言模型中也會有這樣的雜草存在,而動手去清理這些不需要的連結參數或神經元的技術,就稱為 AI 模型的模型剪枝(Model Pruning)。

-----廣告,請繼續往下閱讀-----

模型剪枝的效果,大概能把100變成70這樣的程度,說多也不是太多。雖然這樣的縮減對於提升效率已具幫助,但若我們要的是一個更小幾個數量級的模型,僅靠剪枝仍不足以應對。最後還是需要從源頭著手,採取更治本的方法:一開始就打造一個很小的模型,並讓它去學習大模型的知識。這項技術被稱為「知識蒸餾」,是目前 AI 模型壓縮領域中最具潛力的方法之一。

知識蒸餾(Knowledge Distillation)—讓小模型學習大師的「精髓」

想像一下,一位經驗豐富、見多識廣的老師傅,就是那個龐大而強悍的 AI 模型。現在,他要培養一位年輕學徒—小型 AI 模型。與其只是告訴小型模型正確答案,老師傅 (大模型) 會更直接傳授他做判斷時的「思考過程」跟「眉角」,例如「為什麼我會這樣想?」、「其他選項的可能性有多少?」。這樣一來,小小的學徒模型,用它有限的「腦容量」,也能學到老師傅的「智慧精髓」,表現就能大幅提升!這是一種很高級的訓練技巧,跟遷移學習有關。

舉個例子,當大型語言模型在收到「晚餐:鳳梨」這組輸入時,它下一個會接的詞語跟機率分別為「炒飯:50%,蝦球:30%,披薩:15%,汁:5%」。在知識蒸餾的過程中,它可以把這套機率表一起教給小語言模型,讓小語言模型不必透過自己訓練,也能輕鬆得到這個推理過程。如今,許多高效的小型語言模型正是透過這項技術訓練而成,讓我們得以在資源有限的邊緣設備上,也能部署愈來愈強大的小模型 AI。

但是!即使模型經過了這些科學方法的優化,變得比較「苗條」了,要真正在邊緣環境中處理如潮水般湧現的資料,並且高速、即時、穩定地運作,仍然需要一個夠強的「引擎」來驅動它們。也就是說,要把這些經過科學千錘百鍊、但依然需要大量計算的 AI 模型,真正放到邊緣的現場去發揮作用,就需要一個強大的「硬體平台」來承載。

-----廣告,請繼續往下閱讀-----

邊緣 AI 的強心臟:SKY-602E3 的三大關鍵

像研華的 SKY-602E3 塔式 GPU 伺服器,就是扮演「邊緣 AI 引擎」的關鍵角色!那麼,它到底厲害在哪?

一、核心算力
它最多可安裝 4 張雙寬度 GPU 顯示卡。為什麼 GPU 這麼重要?因為 GPU 的設計,天生就擅長做「平行計算」,這正好就是 AI 模型裡面那種海量數學運算最需要的!

你想想看,那麼多數據要同時處理,就像要請一大堆人同時算數學一樣,GPU 就是那個最有效率的工具人!而且,有多張 GPU,代表可以同時跑更多不同的 AI 任務,或者處理更大流量的數據。這是確保那些科學研究成果,在邊緣能真正「跑起來」、「跑得快」、而且「能同時做更多事」的物理基礎!

二、工程適應性——塔式設計。
邊緣環境通常不是那種恆溫恆濕的標準機房,有時是在工廠角落、辦公室一隅、或某個研究實驗室。這種塔式的機箱設計,體積相對緊湊,散熱空間也比較好(這對高功耗的 GPU 很重要!),部署起來比傳統機架式伺服器更有彈性。這就是把高性能計算,進行「工程化」,讓它能適應台灣多樣化的邊緣應用場景。

三、可靠性
SKY-602E3 用的是伺服器等級的主機板、ECC 糾錯記憶體、還有備援電源供應器等等。這些聽起來很硬的規格,背後代表的是嚴謹的工程可靠性設計。畢竟在邊緣現場,系統穩定壓倒一切!你總不希望 AI 分析跑到一半就掛掉吧?這些設計確保了部署在現場的 AI 系統,能夠長時間、穩定地運作,把實驗室裡的科學成果,可靠地轉化成實際的應用價值。

-----廣告,請繼續往下閱讀-----
研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。/ 圖片提供:研華科技

台灣製造 × 在地智慧:打造專屬的邊緣 AI 解決方案

研華科技攜手八維智能,能幫助企業或機構提供客製化的AI解決方案。他們的技術能力涵蓋了自然語言處理、電腦視覺、預測性大數據分析、全端軟體開發與部署,及AI軟硬體整合。

無論是大小型語言模型的微調、工業瑕疵檢測的模型訓練、大數據分析,還是其他 AI 相關的服務,都能交給研華與八維智能來協助完成。他們甚至提供 GPU 與伺服器的租借服務,讓企業在啟動 AI 專案前,大幅降低前期投入門檻,靈活又實用。

台灣有著獨特的產業結構,從精密製造、城市交通管理,到因應高齡化社會的智慧醫療與公共安全,都是邊緣 AI 的理想應用場域。更重要的是,這些情境中許多關鍵資訊都具有高度的「時效性」。像是產線上的一處異常、道路上的突發狀況、醫療設備的即刻警示,這些都需要分秒必爭的即時回應。

如果我們還需要將數據送上雲端分析、再等待回傳結果,往往已經錯失最佳反應時機。這也是為什麼邊緣 AI,不只是一項技術創新,更是一條把尖端 AI 科學落地、真正發揮產業生產力與社會價值的關鍵路徑。讓數據在生成的那一刻、在事件發生的現場,就能被有效的「理解」與「利用」,是將數據垃圾變成數據黃金的賢者之石!

👉 更多研華Edge AI解決方案
👉 立即申請Server租借

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

2

7
1

文字

分享

2
7
1
應對Deepfake濫用,台灣修正刑法夠用嗎?
法律白話文運動_96
・2022/01/30 ・5302字 ・閱讀時間約 11 分鐘

  • 作者/賴宜欣,台北大學法律系法學組學士,政治大學法律學系碩士,日本國立名古屋大學特別研究生,現為執業律師。

編按:在出現Deepfake之後,網路世界進入了「眼見不為憑」的年代。本次泛科學和法律白話文合作策畫「Deepfake 專題」,從Deepfake 技術與辨偽技術、到法律如何因應。科技在走,社會和法律該如何跟上、甚至超前部署呢?一起來全方位解析 Deepfake 吧!

看完國外針對深度造假技術的相關規範,讓我們回過頭來看看台灣。現行台灣法規,對於使用深度造假的數位性犯罪,其實規範相當不足,常見質疑包括有人提出「罪刑是否相當」或有謂「對於未經同意拍攝散布、或是未真實發生的性影像,並沒有特別規範」等。

而在諸多立委、婦女團體及法界人士的促請下,連蔡英文總統也都跳出來發文,呼籲民眾關注此類事件,並宣示政府會重新盤點法規,研擬推動修法。法務部也稱將朝「加重刑法相關刑責」的方向辦理。

蔡英文總統發文呼籲大眾關注 deepfake。圖/蔡英文 Tsai Ing-wen

不過不少聲音認為,雖然修正《刑法》相關規定是較為簡便,但《刑法》目的只在「究責」,如果真要防制數位性暴力,應該要從前端宣導預防著手,並於事後保護被害人的身心發展。舉例來說,如若進入刑事訴訟,被害人可能會因公開審理的緣故,形成二度受創。種種因素都指出,相關管制應較適合朝制定「專法」的方向發展。

先來看看刑法修正草案的內容

2021 年 11 月 17 日,法務部提出《刑法》修正草案。將保護的範圍主要分成三種:

-----廣告,請繼續往下閱讀-----

第一,針對「真實的性私密影音」,加重處罰「竊錄性影音」的行為,明文處罰竊錄性影音以及進一步散布、傳送或供他人觀覽的行為,最重可處五年有期徒刑。且不但未經同意竊錄會構成犯罪,即使在經同意後所收錄的性私密影音,也不能在未經同意下散布播送。

第二是針對「不實的性影音」,不論是製作合成、散布、播送、交付或以他法供人觀覽,這些都是犯罪行為,最重處 5 年以下有期徒刑;如果還意圖營利,更會加重處罰到 7 年。

第三則是針對「不實活動、言論、談話的影音或其電磁紀錄」,若是意圖散布而製作前述內容,或散布、播送、交付或以他法供人觀覽相關內容,則會受到 3 年以下有期徒刑的處罰,如果意圖營利,更會加重到 5 年以下有期徒刑。

散步私密與不實影音,都屬於犯罪行為。圖/envato elements

參考國外規範,台灣或有可借鏡之處

透過上述的《刑法》修正草案,台灣對於「性私密影音」的管制,終於有了較為清楚的規範。不過,這樣的修法是否足以遏止數位性犯罪了呢?跟國外規範比一比,筆者此處整理幾點,或可供後續立法借鏡的地方。

-----廣告,請繼續往下閱讀-----

一、性犯罪配套對策與保安處分的多元性

韓國相關立法有相當多元的「保安處分」,其中針對性犯罪,設有「性暴力治療計畫、人身情報公開、兒少及身障等福利機構之就業禁止、電子腳鐐」等配套。

舉例來說,2021 年 11 月,N 號房中主要犯罪者們,陸續被判以 15 年到 42 年不等的刑期,而法院在刑期外,更另外作成了多種「保安處分」,除了要求主要營運者及初始創房者「公開身分情報 10 年」,並「限制其在兒少機關及身心障礙人士福祉設施就職」外,也須「配戴定位追蹤的電子裝置 30 年」(註)。

N 號房中主要犯罪者們,除了刑期外,還有各種「保安處分」。圖/envato elements

回來看看台灣,因為台灣沒有制定專法,性犯罪在判刑之餘,相關配套措施是依《刑法》第 91 條之 1 規定,以及《性侵害防罪防治法》相關規定辦理,其中最廣為所知的是對性犯罪行為人進行「強制治療」。

但問題來了,大法官在司法院釋字 799 號解釋中,認為「現行強制治療制度長年運作結果,有趨近於刑罰之可能。」也就是說,長期接受強制治療者,如果仍未達到或無法達到,顯著降低再犯危險的治療目標,就會被一而再強迫接受治療,等同讓受治療者變相被無限期剝奪人身自由,猶如終身監禁,而有牴觸憲法之疑慮。

-----廣告,請繼續往下閱讀-----
大法官曾針對強制治療進行釋憲。圖/關鍵評論網

因此,衛福部因此研擬《性侵害犯罪防治法》修正草案,在第 37 條增訂:「經鑑定、評估,認有繼續執行之必要或認無法達到其再犯危險顯著降低治療目標者,法院得依直轄市、縣(市)主管機關聲請延長強制治療或命接受科技設備監控;其延長或監控期間,每次以三年為限。」 

簡單來說,對於接受強制治療的加害人,是採以 3 年為限度施以監控。雖然這是在權衡「病人的治療」跟「犯人的人權」兩難下的決定,但也讓民間非常擔心是否有縱放社會,提升再犯風險的問題,並呼籲政府應予強化社會安全機制。

有鑑於此,韓國法在處理性犯罪時配套措施的多元,以及從 N 號房判決中看到,賦予法官對保安處分期間訂定的權限,也比台灣寬鬆許多,在這些做法或許是台灣可參考之處。

二、修法似漏未規範處罰未遂犯?

本次台灣的刑法修正,似乎並未囊括未遂犯的處罰。在韓國的《性暴力犯罪法》中,對於數位性暴力的犯罪行為,都設有處罰未遂犯的規定。由於未遂犯的處罰,必須有明文規定才能辦理,這應該是個法規漏洞,希望未來能立法加以補足。

-----廣告,請繼續往下閱讀-----

三、考量組織犯罪可能性,制定加重條款防範

在數位性犯罪的問題中,也必須要注意組織犯罪的態樣。從韓國 N 號房事件可以清楚發現,當數位性暴力以組織犯罪形式開始擴大時,受害程度會急遽上升,受害人也更加難以抵抗。

韓國法院就認為,N 號房的主要犯罪者們,創設色情房並加以營運分工,是構成組織犯罪 。台灣其實也有前車之鑑,在詐騙集團盛行時,為了應對這種犯罪行為組織化的情況,修訂了詐欺罪的規定──若是三人以上共同犯詐欺罪時,會受到比單純詐欺罪更重的處罰。

既然數位性犯罪,非常有可能發展成組織化的犯罪,筆者認為在立法上可以考量像詐欺罪一樣,制定集團犯罪的加重條款來加以防範。

數位性犯罪有可能是組織犯罪。圖/envato elements

四、應考量將「持有與購買者」納入規範

由於台灣這次修法並沒有將「持有與購買者」入罪,但因為有「散布、營利」之人,就一定會有「購買、持有」之人,對於這種只處罰一方的疑慮,韓國法界已出現促請立法規範的聲音 ,台灣是不是也應該考慮一起處罰「持有與購買者」呢?

-----廣告,請繼續往下閱讀-----

對此,有論者擔心,若貿然將持有購買性影像的行為定罪,會因為付費會員過多造成打擊過廣的問題;甚至多數行為人可能只是抱持「性好奇」,甚至是心理尚未成熟、未能認知犯罪的未成年人──這樣貿然處罰可能會與兒少保護有所衝突,因此需要考量比例原則 。

然而,正所謂「殺頭生意有人做,賠錢生意無人做」,若僅單向處罰產出性影像的一方,而對為數眾多的持有與購買者完全不規範,行為人在評估營利利潤大於刑責風險下,仍會前仆後繼的進行數位性犯罪行為。

這麼一來,將無法根本性地遏止數位性犯罪。被害人必須經歷的心理創傷,甚至對名譽、事業的影響,都是對於被害人無法抹滅的痛苦 。

因此,筆者仍傾向贊成韓國律師界的意見「不能再讓當事人的犯罪受到好奇心的保障,任何一次的收看、分享、儲存或散布都是犯罪」,應該將持有與購買列入處罰。但同時也應該在教育及基層機關上,積極推動「犯罪預防」、「青少年事前性教育宣傳」、「成立兒少性犯罪調查專責部門」等,處罰與教育兩者並行不悖。

-----廣告,請繼續往下閱讀-----
持有與購買私密影片應考慮列入處罰。圖/envato elements

五、對「強暴脅迫」的數位性暴力,漏未規範?

韓國《性暴力犯罪法》在 2021 年 1 月 24 開始,將「涉及性私密影像的強暴脅迫」列入犯罪 ,也就是明確規定用性私密影像來強暴脅迫被害人的行為,是一種犯罪。而參考 N 號房事件,脅迫的對象應不只限於被害人本人,如以被害人的性私密影像來脅迫他人,也是犯罪 。

就像報導指出,前述事件的被害人,就受到行為人脅迫「將公開人身情報並對親友不利」,讓其直接自行製作性剝削影片。甚至對青少年們進行強姦、類似性行為後,將影像攝影傳送,以要散布子女的裸照,脅迫被害青少年的父母。

性私密影像的產生,並不一定是由犯罪行為人製作,也很有可能是脅迫被害人自己製作。這常見於雙方過往曾有親密關係,也因此取得相關性私密素材,事後卻將此私密內容作為脅迫工具。

台灣的《刑法》修正草案,目前並沒有就「涉及性私密影像的強暴脅迫」有所規範。對比近來立委高嘉瑜受到家暴及被威脅外流性私密影像的事件,這也彰顯了法規缺陷的問題,應該即時檢討。           

-----廣告,請繼續往下閱讀-----
圖/envato elements

六、考量搭配事前規範的可行性

台灣及韓國,目前都較著重在處罰「利用當下(製作、編輯、合成加工)」及「利用後(散布、營利)」的行為,並未有針對事前的規範。

或許可以考量搭配日本和歐盟的模式,在利用深度造假等技術前就予以分類,賦予行為人相對應的事前注意義務(如:告知影像是以深度造假技術製作的通知義務、加註警語等),以減少後續不當使用的產生。並可透過專家會議及政府部門定時檢討等方式,達成與時俱進的 AI 利用規範。

又或像是美國的《深度造假問責法》(DEEP FAKES Accountability Act)草案,要求使用深度造假技術製作影片的人負起責任。例如,若影片內含有虛假人物的視覺元素,製作者應嵌入數位浮水印(Digital watermarking),讓閱聽者能清楚識別這份影音包含更改後的音檔或視覺元素,或要求提出更改聲明,以及對更改程度的簡單描述。

圖/envato elements

遏止AI濫,用前置作業、處罰、教育宣導應三方並行

台灣目前在數位性犯罪的整體應對上,仍有許多可以檢討的地方。在前置階段,可以參考歐盟、日本或美國,針對 AI 功能進行分類採取如通知義務、加註警示等對應措施。在處置不當利用深度造假等技術時(如數位性犯罪),則應注意「處罰未遂犯、處罰購買及持有者、列入數位性犯罪的強暴脅迫、注意組織犯罪防範」等面向,以期細緻化處罰或配套措施。而防治數位性犯罪的相關教育宣導,更是不可或缺的。畢竟良善的文化才能確保人人尊重彼此,從源頭杜絕類似情況再次發生。

本文爬梳現狀,整理可供借鏡之處,希望本文有助於未來數位性暴力的防制更加完善。

註解

參考資料

一、中文部分

  1. 婦女救援基金會,侵害個人性私密影像防制條例草案。 
  2. 江鎬佑,小玉換臉罪責如「轉傳A片」?數位性暴力法制的缺角
  3. 姜冠霖、王碩勛,從陌生人到熟人凌辱,韓國Deepfake數位性犯罪修法的啟示
  4. 洪敏隆,數位性暴力在台灣無法可管?民團訴求專法防止挖面事件再發生
  5. 現代婦女基金會, 大法官「性侵犯強制治療」釋憲出爐!民間呼籲:高再犯風險回歸社區,須強化安全機制

二、外文部分

  1. 韓國日報,「N번방’ 최초 개설자 문형욱 징역 34년, ‘박사방’ 2인자 강훈 15년 확정」、「박사방운영자 조주빈, 대법서 징역 42년 확정…공대위“끝이 아닌 시작
  2. ‘딥페이크 처벌법’ 신설하긴 했지만, ‘반쪽’ 짜리 법안입니다
  3. 韓國《性暴力犯罪之處罰等相關特例法》。
  4. 대법원 2021도11753, 2021전도112(병합) 대법원 2021도11816‘n번방’ 최초 개설자 ‘갓갓’, 징역 34년… 박사방 ‘부따’, 징역 15년 확정
-----廣告,請繼續往下閱讀-----
所有討論 2

0

4
1

文字

分享

0
4
1
遏止 Deepfake 被濫用,韓日歐各國如何規範 AI 使用?
法律白話文運動_96
・2022/01/27 ・4432字 ・閱讀時間約 9 分鐘

  • 作者賴宜欣,台北大學法律系法學組學士,政治大學法律學系碩士,日本國立名古屋大學特別研究生,現為執業律師。

編按:在出現Deepfake之後,網路世界進入了「眼見不為憑」的年代。

本次泛科學和法律白話文合作策畫「Deepfake 專題」,從Deepfake 技術與辨偽技術、到法律如何因應。科技在走,社會和法律該如何跟上、甚至超前部署呢?一起來全方位解析 Deepfake 吧!

網紅小玉的「換臉私密影片」犯罪事件,讓深度造假(DeepFake)技術一夕之間成為台灣廣為人知的的技術。而此次風波,更讓社會大眾注意 AI 技術被濫用的嚴重性,呼請修法的聲浪不斷,希望政府能盡速遏止科技犯罪,不要再有下一個受害者。本文則介紹韓國、日本、歐盟各國的相關管制,擬以他山之石,一窺未來台灣可能的相關管制之道。

圖/envato elements

韓國:以 N 號房事件為鑑,修訂「性暴力犯罪法」

2019 年底,韓國爆發「N 號房事件」──受害規模之大不但震驚了整個韓國社會,也引發國際矚目。

「N 號房」營運的方式,是隨著付費等級提高,就能進入內容更加腥羶的色情房(總會員人數據傳高達 27 萬人);而在那些色情房中,也包含了以深度造假合成的不雅影像及照片為主題的群組。由於付費會員中不乏高社經地位人士,受害者眾多,也讓韓國的社會大眾意識到「數位性犯罪」的嚴重性。

當時韓國法規對數位性犯罪的規範相當不足 ,如同韓國的網路新聞所報導的,面對「換臉加散布」這樣的情況,只能用如《刑法》「提供猥褻物品(包含文書、圖畫或其他物品)罪」或《情報通信網法》中的「透過情報通信網對公眾散布、販賣、提供猥褻影像罪」來處罰,並以毀損名譽及侵害肖像權為由「請求損害賠償」。因此即使是如此眾所矚目的嚴重案件,在法律上實際要進行處罰,最重也不過是 1 年的有期徒刑及 1000 萬韓元(約台幣 25 萬元)的罰金,可說是相當輕微註一

-----廣告,請繼續往下閱讀-----
N號房參與者不乏高社經地位人士,讓韓國的社會大眾意識到「數位性犯罪」嚴重性(示意)。圖/envato elements

此外,法律專家們也指出另一個大漏洞──當時的法律並沒有依據能針對「使用深度造假製作虛偽影像的行為本身」施加處罰。也就是說,製作影片本身在當時並不違法,法律必須要等到行為人散布虛偽合成影像、讓影片接觸社會大眾,才能夠啟動處罰。

鑒於利用 AI 技術、合成虛偽影像對受害人已經是一大傷害;而至散佈虛偽影像對受害人來說(特別是被運用在成人情色片等猥褻物品方面),則應被視為極大的二度傷害。根據韓國法律新聞指出,2019 年統計受到「深度造假」換臉程式合成的被害人,高達 96% 是女性,其中 25% 是韓國的女性演藝人員。因此,韓國法界多半認為應直接針對活用深度造假虛偽影像的行為,量身打造可以直接適用的法律;也讓該國開始修定《性暴力犯罪之處罰等相關特例法》(下稱「性暴力犯罪法」)。

修法直接處罰「製作、散布及利用虛偽影像營利的行為」 

就在前述的修法呼聲中,2021 年 1 月 21 日,韓國修正施行了《性暴力犯罪法》相關規定,明文禁止利用深度造假製作虛偽影像等數位性暴力行為。

首先,該法會處罰「製作虛偽影像的人」,只要「抱著散布目的」,在「違反當事人的意思」的前提下,利用「他人面孔、身體或聲音製作攝影、影像、聲音等物」,進行「誘發性慾望和性羞恥心」的「編輯、合成、加工等行為」,就會受到 5 年以下有期徒刑和 5000 萬韓元(約台幣 125 萬元)以下罰金的處罰。

-----廣告,請繼續往下閱讀-----
製作、散布、以虛偽影像營利,皆會受到刑罰。 圖/envato elements

其次, 修正後的《性暴力犯罪法》 也會處罰「散布虛偽影像的人」。換句話說,只要將上述「經過編輯合成加工的虛偽影像(包含影像的複製物)」散布出去;且即使在「編輯當時」沒有違反當事人的意願,但事後散布這些虛偽影像時,已經違反當事人意願的話,也是違法的。針對散布的行為,將處以 5 年以下有期徒刑和 5000 萬韓元以下罰金。

接著,如果是「違反當事人意願,利用情報通信網散布虛偽影像來營利」的行為,更會處以 7 年以下有期徒刑。更嚴重的,如果「製作、散布、營利」三種行為全包了,則會加重總合刑度的 2 分之 1。並且,以上這些行為,全部都有處罰未遂犯。

另外,韓國更進一步把利用影片進行「強暴、脅迫及行無義務之事」的行為也列入處罰。像是「利用能夠誘發性慾望和性羞恥心的攝影物和複製物來進行脅迫」,處 1 年以下有期徒刑;又或是利用前述影片「脅迫妨害他人行使權利或使其行無義務之事」者,則處 3 年以下有期徒刑。而若有人統包這兩種行為的話,更會加重總合刑度的 2 分之 1。

修法之後仍未懲罰虛偽影像的「消費者」?

但是,即使制定了專門的處罰法規,還是有不足的地方。比方說,該法並未處罰「購買、消費深度造假影像的視聽者」。律師解釋,修改後的法規只處罰「製作、散布虛偽影像者」一方,並未針對「購買、消費虛偽影像」的另一方,設下處罰規範,也就難以針對「購買、消費虛偽影像的視聽者」予以管制註二

-----廣告,請繼續往下閱讀-----

那麼,對於購買深度造假虛偽影像的人,真的沒辦法處罰嗎?律師表示,《性暴力犯罪法》還是會針對「單純持有影像者」,處以 3 年以下有期徒刑及 3000 萬韓元(約 75 萬台幣)以下罰金──不過,本條的處罰前提是:必須證明行為人「把虛偽影像當成真實影像」購買保存,才可以認定為不法持有影像的行為而加以處罰。

但這樣的證明方式過於迂迴,因此韓該國法界多認為,應正視購買視聽對受害人帶來的莫大創傷,未來應明文處罰「購買及消費影像」之人,才能予以平衡。

目前韓國針對「購買、消費虛偽影像」的人,處罰規定不足。圖/envato elements

日本及歐盟:以「AI 倫理規範」防治不當使用

相對於韓國制定專法來防治數位性暴力,日本及歐盟則是建立「AI 利用倫理規範」,在利用 AI 的前階段,對未來的使用方式進行分類,賦予不同程度的行為義務。

2021 年 4 月 21 日,歐盟發表了《人工智慧統一管理規則的立法草案》(Proposal for a Regulation on a European approach for Artificial Intelligence)簡稱「人工智慧法」,依照危險性的高低及重要程度,將利用 AI 的行為分成 4 個類型——「不可接受的風險、高度風險、具限定性風險(有限風險)、極小/無風險」,並要求採取「禁止使用、提供情報、使用情況(如登入)之紀錄、協助主管機關監視 AI、由 AI 進行動作之通知義務、警告標示」等相對應義務。

-----廣告,請繼續往下閱讀-----

其中,如同日本學者川嶋雄作專欄文章所討論的,「使用深度造假操作技術,形成畫面、聲音、動畫」等利用行為,是被分類在「具有限定性的危險」。依據該法案,使用深度造假技術做出虛偽影像者,具有通知義務、需附加警告標語,必須告知觀眾這是使用 AI 技術所形成的影像註三

根據日本律師相關的分析內容,日本也採取了和歐盟相同的路線,不走法制化的路線,而著重推廣 AI 倫理 ,由政府部門和國際性企業為首,定期召開會議來檢討國內利用 AI 的情況。

像是日本學界就成立了「人工智慧學會」、內閣府(相當於我國的行政院)也召集了「人工智慧和人類社會之懇談會」、「AI 網絡社會促進會議」等組織,提出人工智慧倫理指南;該指南指出:不能透過人工智慧,直接或間接造成他人情報或財產侵害(安全原則),需尊重他人隱私,並落實誠實義務(透明化原則),並確保不得惡意使用之社會責任(適切原則)。而包括 SONY、日立等日系大廠,也都制定了自家的 AI 守則,來因應國際發展。

總的來說,日本與歐盟沒有立法,主要是針對 AI 的潛在危險性進行分類,並賦予相對的使用義務規範。不過,這樣的方式多少會限定特定 AI 的使用方式,因此是否有必要明文賦予拘束力,目前在歐洲委員會仍在檢討,各國仍尚未定案。而日本目前則是以公部門和企業為首,在配合國際趨勢下進行自主規範,並沒有打算進一步做出強制性的立法 。

-----廣告,請繼續往下閱讀-----

相較於韓國因發生嚴重案件而具體修正《性暴力犯罪法》,以遏止類似惡性事件再度發生;歐盟與日本目前仍採取倫理推廣的路線,透過針對 AI 技術的研發起源進行規範。孰優孰劣、未來又將如何發展?恐怕只有時間才能告訴我們了。

圖/envato elements

註解

  • 註一:韓國律師所舉出 2019 年當時可能用來處罰 DeepFake濫用的三個法規:首先是刑法第 244 條「提供猥褻物品(包含文書、圖畫或其他物品)罪」,可處罰 1 年以下有期徒刑和 500 萬韓元(約台幣 12.5 萬元)以下罰金。第二,依「情報通信網利用促進及情報保護等相關法律(情報通信網法)」第 44 條之 7,在「使公共得以接觸下,透過情報通信網散布、販賣、提供猥褻之符號、文件、聲音、畫像和影像等」,處 1 年以下有期徒刑和 1000 萬韓元(約台幣 25 萬元)以下罰金。最後是「名譽毀損」相關法規,對合成並提出猥褻物品者主張名譽毀損,及主張肖像權受侵害,提出損害賠償。
  • 註二:本標題段落參自:딥페이크 처벌법’ 신설하긴 했지만, ‘반쪽’ 짜리 법안입니다
  • 註三:體系圖參照「報道から見る欧州AI規則案の日本での受容と影響」,其中的圖 1:AI 規則案の全体像 。

參考資料

  1. 취향대로 골라보세요?” 한국 아이돌로 장사하는 딥페이크 포르노 ,2019年10月18日。
  2. 韓國《性暴力犯罪之處罰等相關特例法》。
  3. 딥페이크 처벌법’ 신설하긴 했지만, ‘반쪽’ 짜리 법안입니다 ,2021年1月14日
  4. 川嶋 雄作,AI規制は時期尚早か?「EUによる規制法案から考えるAI倫理」 , 独立行政法人経済産業研究所。
  5. InFoCom T&S World Trend Report,情報通信総合研究所主任研究員 栗原佑介,2021.5.31,「報道から見る欧州AI規則案の日本での受容と影響」。
  6. BUSINESS LAWYERS,注目度が高まるAI倫理と個人情報保護の関係 – カメラ画像の利活用を題材に –
  7. 經濟產業省,「我が国の AI ガバナンスの在り方 ver. 1.0 AI 社会実装アーキテクチャー検討会 中間報告書 」,令和3年1月 15 日 ,頁12。
  8. 網路安全所助理研究員 吳宗翰,「歐盟公布草案禁止 AI 用於社會評等」,國防安全雙周報。
-----廣告,請繼續往下閱讀-----