0

3
3

文字

分享

0
3
3

網路匿名制度如何造成責任分散「道德解離」?從南韓「N號房」性犯罪事件談起

Vicky Ho_96
・2020/04/10 ・2000字 ・閱讀時間約 4 分鐘 ・SR值 601 ・九年級

  • 文/何晨瑋
    一個幼教系雙主修心理諮商的大學生,致力挑戰大眾的刻板印象。文章多以日常故事為基底,並透過心理學、哲學等領域的角度,重新反思生活與生命的核心價值。個人部落格
目前有兩份相關提案持續進行中。圖/截圖自青瓦台請願網

近期南韓「N號房」性虐待事件,引發全球高度關注。這起事件涉及 74 名女性遭到詐欺恐嚇等犯罪方式,被迫拍攝性虐待、性剝削的影片,且至少有 16 名未成年人,而最小的受害者年僅 11 歲。

這些影片在通訊軟體 Telegram 中不斷傳播,高達 26 萬名會員「付費」觀看相關的對話內容、照片及影片,引發韓國社會群起激憤,並連署要求政府公開「N號房」犯罪嫌疑人個資及長相照片、以及各群組全員個資。

然而,在事件揭露後,竟有匿名網友表示「我什麼都沒有做錯,只是付了錢進來觀看影片,為什麼要懲罰我?」等未加意識自身成為犯罪結構下的共犯言論。

本篇文章,將以社會心理學當中的道德解離(Moral disengagement),並更聚焦在理論機制中的責任分散(Diffusion of responsibility),來討論韓國「N號房」事件中,所顯示的網路性霸凌的盛行及道德淪喪。

-----廣告,請繼續往下閱讀-----

免除罪惡感的「道德解離」

心理學家班都拉 (Albert Bandura) 認為,人在進行/不進行或違反道德的行為,所引發的情緒反應,包括助人的成就感、違背道德的內疚等感受,都和道德行為的自我監控辯證過程有關。

人是否進行道德行為,和所帶來的情緒反應及自我譴責等息息相關。圖/pixabay

而一旦做出有違背道德的行為時,人會為了降低自我譴責、愧疚等負面情緒,會說服自己一般的道德標準不適用於特定環境;或忽視道德標準的存在,進而合理化自身不道德行為,形成道德解離

也就是說,道德解離是一種個體為自己面臨或違反道德行為做辯解和合理化的心理運作。2 其機制包含:道德論證(Moral justification)、委婉標示(Euphemistic labelling)、優勢對比(Advantageous comparison)、責任轉移(Displacement of responsibility)、責任分散(Diffusion of responsibility)、結果扭曲(Distortion of consequence)、非人性(Dehumanization)和責備歸因(attribution of blame)八種因素,這些因素與社會結構及環境相互關聯,並非獨立運作的3

網路的匿名性更加劇「責任分散」

責任分散是指當事件發生在群體中,隨著人數的增加,每個人所承擔的責任也在減少。其中在網路世界的「匿名性」,也提高責任分散的程度,此概念同為「旁觀者效應」的形成原因之一,也就是當旁觀者越多,則會越少人伸出援手

-----廣告,請繼續往下閱讀-----
強調加密且匿名的通訊軟體Telegram成為網路性霸凌的最大溫床。圖/needpix

根據韓國性剝削共同對策委員會的調查指出,「N號房」性剝削房間可能存在 100 個,一個房間同時最多有 3.5 萬人參與其中。這些參與者在強調高隱私的通訊軟體 Telegram 上,分別擁有不同「暱稱」,活躍於群組內觀看性虐待的影片、上傳所擁有的色情視頻,甚至參與言語性騷擾等。

「匿名性」使網路使用者認為其言行不必承擔任何責任,因此對話內容及行徑也趨向極端。在此惡性循環下,每個人所需承擔的道德及社會責任不但趨向分散,也弱化個人道德控制能力。3,4

數位人權,網路使用者共同的責任

根據 2019 年聯合國「國際消除對女性使用暴力日」(International Day for the Elimination of Violence against Women)公布5多國針對女性受暴的分析報告指出:

當前對女性威脅最嚴重的是網路性暴力、性勒索手法不斷翻新6,也說明網路匿名性所造成的責任分散,不斷使個人的道德責任被分散及削弱。

目前各國政府也積極推動人權行動計畫,其中數位人權議題也被放入其中討論,而身為社會大眾的我們,可以不點閱、不轉傳、不評論這些影片的內容,並提出檢舉,更重要的是不責怪受害者。

-----廣告,請繼續往下閱讀-----
身處為數位時代的我們應當注意人權的再現問題。圖/pexels

最後,南韓「N號房」事件所牽涉層面極廣,高達 74 位女性,更有多位未成年少女受害。除了反映著韓國文化中男女不平等的社會結構,還包含著以及分層階級明顯的權力關係等重要社會議題。本文討論的網路匿名性中的責任分散僅是眾多議題中的一個因素,不能直接化約為單一因素造成整起事件。議題的浮現引導我們更深入的了解與探討不同的議題。在思考上,需要多加注意的!

參考資料

  1. Bandura, A. (1991). Social cognitive theory of moral thought and action. In W. M. Kurtines, & J. L. Gewirtz (Eds.), Handbook of moral behavior and development: Theory, research, and applications (pp. 71-129). Hillsdale, NJ:Lawrence Erlbaum.
  2. 王志全、高三福(2019)。超競爭人格與反社會行為之關係:道德解離的調節效果。體育學報,52(3),355-367。
  3. Bandura, Albert (1999-08-01). “Moral Disengagement in the Perpetration of Inhumanities”. Personality and Social Psychology Review. 3 (3): 193–209.
  4. Bandura, Albert (2002-06-01). “Selective Moral Disengagement in the Exercise of Moral Agency”. Journal of Moral Education. 31 (2): 101–119.
  5. Bandura, A., Underwood, B., Fromson, M.E. (1975). “Disinhibition of aggression through diffusion of responsibility and dehumanization of victims”. Journal of Research in Personality. 9 (4): 253–269.
  6. Femicide: A global scourge
  7. 方念萱(2020)。網路性霸凌──那些受害於數位性別暴力裡的人們,尤其是女人。報導者
-----廣告,請繼續往下閱讀-----
文章難易度
Vicky Ho_96
12 篇文章 ・ 209 位粉絲
多以心理科普方式,討論時事等議題。

0

1
0

文字

分享

0
1
0
人與 AI 的關係是什麼?走進「2024 未來媒體藝術節」,透過藝術創作尋找解答
鳥苷三磷酸 (PanSci Promo)_96
・2024/10/24 ・3176字 ・閱讀時間約 6 分鐘

本文與財團法人臺灣生活美學基金會合作。 

AI 有可能造成人們失業嗎?還是 AI 會成為個人專屬的超級助理?

隨著人工智慧技術的快速發展,AI 與人類之間的關係,成為社會大眾目前最熱烈討論的話題之一,究竟,AI 會成為人類的取代者或是協作者?決定關鍵就在於人們對 AI 的了解和運用能力,唯有人們清楚了解如何使用 AI,才能化 AI 為助力,提高自身的工作效率與生活品質。

有鑑於此,目前正於臺灣當代文化實驗場 C-LAB 展出的「2024 未來媒體藝術節」,特別將展覽主題定調為奇異點(Singularity),透過多重視角探討人工智慧與人類的共生關係。

-----廣告,請繼續往下閱讀-----

C-LAB 策展人吳達坤進一步說明,本次展覽規劃了 4 大章節,共集結來自 9 個國家 23 組藝術家團隊的 26 件作品,帶領觀眾從了解 AI 發展歷史開始,到欣賞各種結合科技的藝術創作,再到與藝術一同探索 AI 未來發展,希望觀眾能從中感受科技如何重塑藝術的創造範式,進而更清楚未來該如何與科技共生與共創。

從歷史看未來:AI 技術發展的 3 個高峰

其中,展覽第一章「流動的錨點」邀請了自牧文化 2 名研究者李佳霖和蔡侑霖,從軟體與演算法發展、硬體發展與世界史、文化與藝術三條軸線,平行梳理 AI 技術發展過程。

圖一、1956 年達特茅斯會議提出「人工智慧」一詞

藉由李佳霖和蔡侑霖長達近半年的調查研究,觀眾對 AI 發展有了清楚的輪廓。自 1956 年達特茅斯會議提出「人工智慧(Artificial Intelligence))」一詞,並明確定出 AI 的任務,例如:自然語言處理、神經網路、計算學理論、隨機性與創造性等,就開啟了全球 AI 研究浪潮,至今將近 70 年的過程間,共迎來三波發展高峰。

第一波技術爆發期確立了自然語言與機器語言的轉換機制,科學家將任務文字化、建立推理規則,再換成機器語言讓機器執行,然而受到演算法及硬體資源限制,使得 AI 只能解決小問題,也因此進入了第一次發展寒冬。

-----廣告,請繼續往下閱讀-----
圖二、1957-1970 年迎來 AI 第一次爆發

之後隨著專家系統的興起,讓 AI 突破技術瓶頸,進入第二次發展高峰期。專家系統是由邏輯推理系統、資料庫、操作介面三者共載而成,由於部份應用領域的邏輯推理方式是相似的,因此只要搭載不同資料庫,就能解決各種問題,克服過去規則設定無窮盡的挑戰。此外,機器學習、類神經網路等技術也在同一時期誕生,雖然是 AI 技術上的一大創新突破,但最終同樣受到硬體限制、技術成熟度等因素影響,導致 AI 再次進入發展寒冬。

走出第二次寒冬的關鍵在於,IBM 超級電腦深藍(Deep Blue)戰勝了西洋棋世界冠軍 Garry Kasparov,加上美國學者 Geoffrey Hinton 推出了新的類神經網路算法,並使用 GPU 進行模型訓練,不只奠定了 NVIDIA 在 AI 中的地位, 自此之後的 AI 研究也大多聚焦在類神經網路上,不斷的追求創新和突破。

圖三、1980 年專家系統的興起,進入第二次高峰

從現在看未來:AI 不僅是工具,也是創作者

隨著時間軸繼續向前推進,如今的 AI 技術不僅深植於類神經網路應用中,更在藝術、創意和日常生活中發揮重要作用,而「2024 未來媒體藝術節」第二章「創造力的轉變」及第三章「創作者的洞見」,便邀請各國藝術家展出運用 AI 與科技的作品。

圖四、2010 年發展至今,高性能電腦與大數據助力讓 AI 技術應用更強

例如,超現代映畫展出的作品《無限共作 3.0》,乃是由來自創意科技、建築師、動畫與互動媒體等不同領域的藝術家,運用 AI 和新科技共同創作的作品。「人們來到此展區,就像走進一間新科技的實驗室,」吳達坤形容,觀眾在此不僅是被動的觀察者,更是主動的參與者,可以親身感受創作方式的轉移,以及 AI 如何幫助藝術家創作。

-----廣告,請繼續往下閱讀-----
圖五、「2024 未來媒體藝術節——奇異點」展出現場,圖為超現代映畫的作品《無限共作3.0》。圖/C-LAB 提供

而第四章「未完的篇章」則邀請觀眾一起思考未來與 AI 共生的方式。臺灣新媒體創作團隊貳進 2ENTER 展出的作品《虛擬尋根-臺灣》,將 AI 人物化,採用與 AI 對話記錄的方法,探討網路發展的歷史和哲學,並專注於臺灣和全球兩個場景。又如國際非營利創作組織戰略技術展出的作品《無時無刻,無所不在》,則是一套協助青少年數位排毒、數位識毒的方法論,使其更清楚在面對網路資訊時,該如何識別何者為真何者為假,更自信地穿梭在數位世界裡。

透過歷史解析引起共鳴

在「2024 未來媒體藝術節」規劃的 4 大章節裡,第一章回顧 AI 發展史的內容設計,可說是臺灣近年來科技或 AI 相關展覽的一大創舉。

過去,這些展覽多半以藝術家的創作為展出重點,很少看到結合 AI 發展歷程、大眾文明演變及流行文化三大領域的展出內容,但李佳霖和蔡侑霖從大量資料中篩選出重點內容並儘可能完整呈現,讓「2024 未來媒體藝術節」觀眾可以清楚 AI 技術於不同階段的演進變化,及各發展階段背後的全球政治經濟與文化狀態,才能在接下來欣賞展區其他藝術創作時有更多共鳴。

圖六、「2024 未來媒體藝術節——奇異點」分成四個章節探究 AI 人工智慧時代的演變與社會議題,圖為第一章「流動的錨點」由自牧文化整理 AI 發展歷程的年表。圖/C-LAB 提供

「畢竟展區空間有限,而科技發展史的資訊量又很龐大,在評估哪些事件適合放入展區時,我們常常在心中上演拉鋸戰,」李佳霖笑著分享進行史料研究時的心路歷程。除了從技術的重要性及代表性去評估應該呈現哪些事件,還要兼顧詞條不能太長、資料量不能太多、確保內容正確性及讓觀眾有感等原則,「不過,歷史事件與展覽主題的關聯性,還是最主要的決定因素,」蔡侑霖補充指出。

-----廣告,請繼續往下閱讀-----

舉例來說,Google 旗下人工智慧實驗室(DeepMind)開發出的 AI 軟體「AlphaFold」,可以準確預測蛋白質的 3D 立體結構,解決科學家長達 50 年都無法突破的難題,雖然是製藥或疾病學領域相當大的技術突破,但因為與本次展覽主題的關聯性較低,故最終沒有列入此次展出內容中。

除了內容篩選外,在呈現方式上,2位研究者也儘量使用淺顯易懂的方式來呈現某些較為深奧難懂的技術內容,蔡侑霖舉例說明,像某些比較艱深的 AI 概念,便改以視覺化的方式來呈現,為此上網搜尋很多與 AI 相關的影片或圖解內容,從中找尋靈感,最後製作成簡單易懂的動畫,希望幫助觀眾輕鬆快速的理解新科技。

吳達坤最後指出,「2024 未來媒體藝術節」除了展出藝術創作,也跟上國際展會發展趨勢,於展覽期間規劃共 10 幾場不同形式的活動,包括藝術家座談、講座、工作坊及專家導覽,例如:由策展人與專家進行現場導覽、邀請臺灣 AI 實驗室創辦人杜奕瑾以「人工智慧與未來藝術」為題舉辦講座,希望透過帶狀活動創造更多話題,也讓展覽效益不斷發酵,讓更多觀眾都能前來體驗由 AI 驅動的未來創新世界,展望 AI 在藝術與生活中的無限潛力。

展覽資訊:「未來媒體藝術節——奇異點」2024 Future Media FEST-Singularity 
展期 ▎2024.10.04 ( Fri. ) – 12.15 ( Sun. ) 週二至週日12:00-19:00,週一休館
地點 ▎臺灣當代文化實驗場圖書館展演空間、北草坪、聯合餐廳展演空間、通信分隊展演空間
指導單位 ▎文化部
主辦單位 ▎臺灣當代文化實驗場

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
210 篇文章 ・ 312 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

2

7
1

文字

分享

2
7
1
應對Deepfake濫用,台灣修正刑法夠用嗎?
法律白話文運動_96
・2022/01/30 ・5302字 ・閱讀時間約 11 分鐘

-----廣告,請繼續往下閱讀-----

  • 作者/賴宜欣,台北大學法律系法學組學士,政治大學法律學系碩士,日本國立名古屋大學特別研究生,現為執業律師。

編按:在出現Deepfake之後,網路世界進入了「眼見不為憑」的年代。本次泛科學和法律白話文合作策畫「Deepfake 專題」,從Deepfake 技術與辨偽技術、到法律如何因應。科技在走,社會和法律該如何跟上、甚至超前部署呢?一起來全方位解析 Deepfake 吧!

看完國外針對深度造假技術的相關規範,讓我們回過頭來看看台灣。現行台灣法規,對於使用深度造假的數位性犯罪,其實規範相當不足,常見質疑包括有人提出「罪刑是否相當」或有謂「對於未經同意拍攝散布、或是未真實發生的性影像,並沒有特別規範」等。

而在諸多立委、婦女團體及法界人士的促請下,連蔡英文總統也都跳出來發文,呼籲民眾關注此類事件,並宣示政府會重新盤點法規,研擬推動修法。法務部也稱將朝「加重刑法相關刑責」的方向辦理。

蔡英文總統發文呼籲大眾關注 deepfake。圖/蔡英文 Tsai Ing-wen

不過不少聲音認為,雖然修正《刑法》相關規定是較為簡便,但《刑法》目的只在「究責」,如果真要防制數位性暴力,應該要從前端宣導預防著手,並於事後保護被害人的身心發展。舉例來說,如若進入刑事訴訟,被害人可能會因公開審理的緣故,形成二度受創。種種因素都指出,相關管制應較適合朝制定「專法」的方向發展。

先來看看刑法修正草案的內容

2021 年 11 月 17 日,法務部提出《刑法》修正草案。將保護的範圍主要分成三種:

-----廣告,請繼續往下閱讀-----

第一,針對「真實的性私密影音」,加重處罰「竊錄性影音」的行為,明文處罰竊錄性影音以及進一步散布、傳送或供他人觀覽的行為,最重可處五年有期徒刑。且不但未經同意竊錄會構成犯罪,即使在經同意後所收錄的性私密影音,也不能在未經同意下散布播送。

第二是針對「不實的性影音」,不論是製作合成、散布、播送、交付或以他法供人觀覽,這些都是犯罪行為,最重處 5 年以下有期徒刑;如果還意圖營利,更會加重處罰到 7 年。

第三則是針對「不實活動、言論、談話的影音或其電磁紀錄」,若是意圖散布而製作前述內容,或散布、播送、交付或以他法供人觀覽相關內容,則會受到 3 年以下有期徒刑的處罰,如果意圖營利,更會加重到 5 年以下有期徒刑。

散步私密與不實影音,都屬於犯罪行為。圖/envato elements

參考國外規範,台灣或有可借鏡之處

透過上述的《刑法》修正草案,台灣對於「性私密影音」的管制,終於有了較為清楚的規範。不過,這樣的修法是否足以遏止數位性犯罪了呢?跟國外規範比一比,筆者此處整理幾點,或可供後續立法借鏡的地方。

-----廣告,請繼續往下閱讀-----

一、性犯罪配套對策與保安處分的多元性

韓國相關立法有相當多元的「保安處分」,其中針對性犯罪,設有「性暴力治療計畫、人身情報公開、兒少及身障等福利機構之就業禁止、電子腳鐐」等配套。

舉例來說,2021 年 11 月,N 號房中主要犯罪者們,陸續被判以 15 年到 42 年不等的刑期,而法院在刑期外,更另外作成了多種「保安處分」,除了要求主要營運者及初始創房者「公開身分情報 10 年」,並「限制其在兒少機關及身心障礙人士福祉設施就職」外,也須「配戴定位追蹤的電子裝置 30 年」(註)。

N 號房中主要犯罪者們,除了刑期外,還有各種「保安處分」。圖/envato elements

回來看看台灣,因為台灣沒有制定專法,性犯罪在判刑之餘,相關配套措施是依《刑法》第 91 條之 1 規定,以及《性侵害防罪防治法》相關規定辦理,其中最廣為所知的是對性犯罪行為人進行「強制治療」。

但問題來了,大法官在司法院釋字 799 號解釋中,認為「現行強制治療制度長年運作結果,有趨近於刑罰之可能。」也就是說,長期接受強制治療者,如果仍未達到或無法達到,顯著降低再犯危險的治療目標,就會被一而再強迫接受治療,等同讓受治療者變相被無限期剝奪人身自由,猶如終身監禁,而有牴觸憲法之疑慮。

-----廣告,請繼續往下閱讀-----
大法官曾針對強制治療進行釋憲。圖/關鍵評論網

因此,衛福部因此研擬《性侵害犯罪防治法》修正草案,在第 37 條增訂:「經鑑定、評估,認有繼續執行之必要或認無法達到其再犯危險顯著降低治療目標者,法院得依直轄市、縣(市)主管機關聲請延長強制治療或命接受科技設備監控;其延長或監控期間,每次以三年為限。」 

簡單來說,對於接受強制治療的加害人,是採以 3 年為限度施以監控。雖然這是在權衡「病人的治療」跟「犯人的人權」兩難下的決定,但也讓民間非常擔心是否有縱放社會,提升再犯風險的問題,並呼籲政府應予強化社會安全機制。

有鑑於此,韓國法在處理性犯罪時配套措施的多元,以及從 N 號房判決中看到,賦予法官對保安處分期間訂定的權限,也比台灣寬鬆許多,在這些做法或許是台灣可參考之處。

二、修法似漏未規範處罰未遂犯?

本次台灣的刑法修正,似乎並未囊括未遂犯的處罰。在韓國的《性暴力犯罪法》中,對於數位性暴力的犯罪行為,都設有處罰未遂犯的規定。由於未遂犯的處罰,必須有明文規定才能辦理,這應該是個法規漏洞,希望未來能立法加以補足。

-----廣告,請繼續往下閱讀-----

三、考量組織犯罪可能性,制定加重條款防範

在數位性犯罪的問題中,也必須要注意組織犯罪的態樣。從韓國 N 號房事件可以清楚發現,當數位性暴力以組織犯罪形式開始擴大時,受害程度會急遽上升,受害人也更加難以抵抗。

韓國法院就認為,N 號房的主要犯罪者們,創設色情房並加以營運分工,是構成組織犯罪 。台灣其實也有前車之鑑,在詐騙集團盛行時,為了應對這種犯罪行為組織化的情況,修訂了詐欺罪的規定──若是三人以上共同犯詐欺罪時,會受到比單純詐欺罪更重的處罰。

既然數位性犯罪,非常有可能發展成組織化的犯罪,筆者認為在立法上可以考量像詐欺罪一樣,制定集團犯罪的加重條款來加以防範。

數位性犯罪有可能是組織犯罪。圖/envato elements

四、應考量將「持有與購買者」納入規範

由於台灣這次修法並沒有將「持有與購買者」入罪,但因為有「散布、營利」之人,就一定會有「購買、持有」之人,對於這種只處罰一方的疑慮,韓國法界已出現促請立法規範的聲音 ,台灣是不是也應該考慮一起處罰「持有與購買者」呢?

-----廣告,請繼續往下閱讀-----

對此,有論者擔心,若貿然將持有購買性影像的行為定罪,會因為付費會員過多造成打擊過廣的問題;甚至多數行為人可能只是抱持「性好奇」,甚至是心理尚未成熟、未能認知犯罪的未成年人──這樣貿然處罰可能會與兒少保護有所衝突,因此需要考量比例原則 。

然而,正所謂「殺頭生意有人做,賠錢生意無人做」,若僅單向處罰產出性影像的一方,而對為數眾多的持有與購買者完全不規範,行為人在評估營利利潤大於刑責風險下,仍會前仆後繼的進行數位性犯罪行為。

這麼一來,將無法根本性地遏止數位性犯罪。被害人必須經歷的心理創傷,甚至對名譽、事業的影響,都是對於被害人無法抹滅的痛苦 。

因此,筆者仍傾向贊成韓國律師界的意見「不能再讓當事人的犯罪受到好奇心的保障,任何一次的收看、分享、儲存或散布都是犯罪」,應該將持有與購買列入處罰。但同時也應該在教育及基層機關上,積極推動「犯罪預防」、「青少年事前性教育宣傳」、「成立兒少性犯罪調查專責部門」等,處罰與教育兩者並行不悖。

-----廣告,請繼續往下閱讀-----
持有與購買私密影片應考慮列入處罰。圖/envato elements

五、對「強暴脅迫」的數位性暴力,漏未規範?

韓國《性暴力犯罪法》在 2021 年 1 月 24 開始,將「涉及性私密影像的強暴脅迫」列入犯罪 ,也就是明確規定用性私密影像來強暴脅迫被害人的行為,是一種犯罪。而參考 N 號房事件,脅迫的對象應不只限於被害人本人,如以被害人的性私密影像來脅迫他人,也是犯罪 。

就像報導指出,前述事件的被害人,就受到行為人脅迫「將公開人身情報並對親友不利」,讓其直接自行製作性剝削影片。甚至對青少年們進行強姦、類似性行為後,將影像攝影傳送,以要散布子女的裸照,脅迫被害青少年的父母。

性私密影像的產生,並不一定是由犯罪行為人製作,也很有可能是脅迫被害人自己製作。這常見於雙方過往曾有親密關係,也因此取得相關性私密素材,事後卻將此私密內容作為脅迫工具。

台灣的《刑法》修正草案,目前並沒有就「涉及性私密影像的強暴脅迫」有所規範。對比近來立委高嘉瑜受到家暴及被威脅外流性私密影像的事件,這也彰顯了法規缺陷的問題,應該即時檢討。           

-----廣告,請繼續往下閱讀-----
圖/envato elements

六、考量搭配事前規範的可行性

台灣及韓國,目前都較著重在處罰「利用當下(製作、編輯、合成加工)」及「利用後(散布、營利)」的行為,並未有針對事前的規範。

或許可以考量搭配日本和歐盟的模式,在利用深度造假等技術前就予以分類,賦予行為人相對應的事前注意義務(如:告知影像是以深度造假技術製作的通知義務、加註警語等),以減少後續不當使用的產生。並可透過專家會議及政府部門定時檢討等方式,達成與時俱進的 AI 利用規範。

又或像是美國的《深度造假問責法》(DEEP FAKES Accountability Act)草案,要求使用深度造假技術製作影片的人負起責任。例如,若影片內含有虛假人物的視覺元素,製作者應嵌入數位浮水印(Digital watermarking),讓閱聽者能清楚識別這份影音包含更改後的音檔或視覺元素,或要求提出更改聲明,以及對更改程度的簡單描述。

圖/envato elements

遏止AI濫,用前置作業、處罰、教育宣導應三方並行

台灣目前在數位性犯罪的整體應對上,仍有許多可以檢討的地方。在前置階段,可以參考歐盟、日本或美國,針對 AI 功能進行分類採取如通知義務、加註警示等對應措施。在處置不當利用深度造假等技術時(如數位性犯罪),則應注意「處罰未遂犯、處罰購買及持有者、列入數位性犯罪的強暴脅迫、注意組織犯罪防範」等面向,以期細緻化處罰或配套措施。而防治數位性犯罪的相關教育宣導,更是不可或缺的。畢竟良善的文化才能確保人人尊重彼此,從源頭杜絕類似情況再次發生。

本文爬梳現狀,整理可供借鏡之處,希望本文有助於未來數位性暴力的防制更加完善。

註解

參考資料

一、中文部分

  1. 婦女救援基金會,侵害個人性私密影像防制條例草案。 
  2. 江鎬佑,小玉換臉罪責如「轉傳A片」?數位性暴力法制的缺角
  3. 姜冠霖、王碩勛,從陌生人到熟人凌辱,韓國Deepfake數位性犯罪修法的啟示
  4. 洪敏隆,數位性暴力在台灣無法可管?民團訴求專法防止挖面事件再發生
  5. 現代婦女基金會, 大法官「性侵犯強制治療」釋憲出爐!民間呼籲:高再犯風險回歸社區,須強化安全機制

二、外文部分

  1. 韓國日報,「N번방’ 최초 개설자 문형욱 징역 34년, ‘박사방’ 2인자 강훈 15년 확정」、「박사방운영자 조주빈, 대법서 징역 42년 확정…공대위“끝이 아닌 시작
  2. ‘딥페이크 처벌법’ 신설하긴 했지만, ‘반쪽’ 짜리 법안입니다
  3. 韓國《性暴力犯罪之處罰等相關特例法》。
  4. 대법원 2021도11753, 2021전도112(병합) 대법원 2021도11816‘n번방’ 최초 개설자 ‘갓갓’, 징역 34년… 박사방 ‘부따’, 징역 15년 확정
-----廣告,請繼續往下閱讀-----
所有討論 2
法律白話文運動_96
26 篇文章 ・ 531 位粉絲
法律白話文運動」是致力於推廣法律知識與法治思想的獨立媒體,願與讀者一起從法律認識議題,從議題反思法律。

0

3
3

文字

分享

0
3
3
網路匿名制度如何造成責任分散「道德解離」?從南韓「N號房」性犯罪事件談起
Vicky Ho_96
・2020/04/10 ・2000字 ・閱讀時間約 4 分鐘 ・SR值 601 ・九年級

  • 文/何晨瑋
    一個幼教系雙主修心理諮商的大學生,致力挑戰大眾的刻板印象。文章多以日常故事為基底,並透過心理學、哲學等領域的角度,重新反思生活與生命的核心價值。個人部落格

目前有兩份相關提案持續進行中。圖/截圖自青瓦台請願網

近期南韓「N號房」性虐待事件,引發全球高度關注。這起事件涉及 74 名女性遭到詐欺恐嚇等犯罪方式,被迫拍攝性虐待、性剝削的影片,且至少有 16 名未成年人,而最小的受害者年僅 11 歲。

這些影片在通訊軟體 Telegram 中不斷傳播,高達 26 萬名會員「付費」觀看相關的對話內容、照片及影片,引發韓國社會群起激憤,並連署要求政府公開「N號房」犯罪嫌疑人個資及長相照片、以及各群組全員個資。

然而,在事件揭露後,竟有匿名網友表示「我什麼都沒有做錯,只是付了錢進來觀看影片,為什麼要懲罰我?」等未加意識自身成為犯罪結構下的共犯言論。

-----廣告,請繼續往下閱讀-----

本篇文章,將以社會心理學當中的道德解離(Moral disengagement),並更聚焦在理論機制中的責任分散(Diffusion of responsibility),來討論韓國「N號房」事件中,所顯示的網路性霸凌的盛行及道德淪喪。

免除罪惡感的「道德解離」

心理學家班都拉 (Albert Bandura) 認為,人在進行/不進行或違反道德的行為,所引發的情緒反應,包括助人的成就感、違背道德的內疚等感受,都和道德行為的自我監控辯證過程有關。

人是否進行道德行為,和所帶來的情緒反應及自我譴責等息息相關。圖/pixabay

而一旦做出有違背道德的行為時,人會為了降低自我譴責、愧疚等負面情緒,會說服自己一般的道德標準不適用於特定環境;或忽視道德標準的存在,進而合理化自身不道德行為,形成道德解離

-----廣告,請繼續往下閱讀-----

也就是說,道德解離是一種個體為自己面臨或違反道德行為做辯解和合理化的心理運作。2 其機制包含:道德論證(Moral justification)、委婉標示(Euphemistic labelling)、優勢對比(Advantageous comparison)、責任轉移(Displacement of responsibility)、責任分散(Diffusion of responsibility)、結果扭曲(Distortion of consequence)、非人性(Dehumanization)和責備歸因(attribution of blame)八種因素,這些因素與社會結構及環境相互關聯,並非獨立運作的3

網路的匿名性更加劇「責任分散」

責任分散是指當事件發生在群體中,隨著人數的增加,每個人所承擔的責任也在減少。其中在網路世界的「匿名性」,也提高責任分散的程度,此概念同為「旁觀者效應」的形成原因之一,也就是當旁觀者越多,則會越少人伸出援手

強調加密且匿名的通訊軟體Telegram成為網路性霸凌的最大溫床。圖/needpix

根據韓國性剝削共同對策委員會的調查指出,「N號房」性剝削房間可能存在 100 個,一個房間同時最多有 3.5 萬人參與其中。這些參與者在強調高隱私的通訊軟體 Telegram 上,分別擁有不同「暱稱」,活躍於群組內觀看性虐待的影片、上傳所擁有的色情視頻,甚至參與言語性騷擾等。

-----廣告,請繼續往下閱讀-----

「匿名性」使網路使用者認為其言行不必承擔任何責任,因此對話內容及行徑也趨向極端。在此惡性循環下,每個人所需承擔的道德及社會責任不但趨向分散,也弱化個人道德控制能力。3,4

數位人權,網路使用者共同的責任

根據 2019 年聯合國「國際消除對女性使用暴力日」(International Day for the Elimination of Violence against Women)公布5多國針對女性受暴的分析報告指出:

當前對女性威脅最嚴重的是網路性暴力、性勒索手法不斷翻新6,也說明網路匿名性所造成的責任分散,不斷使個人的道德責任被分散及削弱。

目前各國政府也積極推動人權行動計畫,其中數位人權議題也被放入其中討論,而身為社會大眾的我們,可以不點閱、不轉傳、不評論這些影片的內容,並提出檢舉,更重要的是不責怪受害者。

身處為數位時代的我們應當注意人權的再現問題。圖/pexels

-----廣告,請繼續往下閱讀-----

最後,南韓「N號房」事件所牽涉層面極廣,高達 74 位女性,更有多位未成年少女受害。除了反映著韓國文化中男女不平等的社會結構,還包含著以及分層階級明顯的權力關係等重要社會議題。本文討論的網路匿名性中的責任分散僅是眾多議題中的一個因素,不能直接化約為單一因素造成整起事件。議題的浮現引導我們更深入的了解與探討不同的議題。在思考上,需要多加注意的!

參考資料

  1. Bandura, A. (1991). Social cognitive theory of moral thought and action. In W. M. Kurtines, & J. L. Gewirtz (Eds.), Handbook of moral behavior and development: Theory, research, and applications (pp. 71-129). Hillsdale, NJ:Lawrence Erlbaum.
  2. 王志全、高三福(2019)。超競爭人格與反社會行為之關係:道德解離的調節效果。體育學報,52(3),355-367。
  3. Bandura, Albert (1999-08-01). “Moral Disengagement in the Perpetration of Inhumanities”. Personality and Social Psychology Review. 3 (3): 193–209.
  4. Bandura, Albert (2002-06-01). “Selective Moral Disengagement in the Exercise of Moral Agency”. Journal of Moral Education. 31 (2): 101–119.
  5. Bandura, A., Underwood, B., Fromson, M.E. (1975). “Disinhibition of aggression through diffusion of responsibility and dehumanization of victims”. Journal of Research in Personality. 9 (4): 253–269.
  6. Femicide: A global scourge
  7. 方念萱(2020)。網路性霸凌──那些受害於數位性別暴力裡的人們,尤其是女人。報導者
-----廣告,請繼續往下閱讀-----
文章難易度
Vicky Ho_96
12 篇文章 ・ 209 位粉絲
多以心理科普方式,討論時事等議題。

0

4
1

文字

分享

0
4
1
遏止 Deepfake 被濫用,韓日歐各國如何規範 AI 使用?
法律白話文運動_96
・2022/01/27 ・4432字 ・閱讀時間約 9 分鐘

-----廣告,請繼續往下閱讀-----

  • 作者賴宜欣,台北大學法律系法學組學士,政治大學法律學系碩士,日本國立名古屋大學特別研究生,現為執業律師。

編按:在出現Deepfake之後,網路世界進入了「眼見不為憑」的年代。

本次泛科學和法律白話文合作策畫「Deepfake 專題」,從Deepfake 技術與辨偽技術、到法律如何因應。科技在走,社會和法律該如何跟上、甚至超前部署呢?一起來全方位解析 Deepfake 吧!

網紅小玉的「換臉私密影片」犯罪事件,讓深度造假(DeepFake)技術一夕之間成為台灣廣為人知的的技術。而此次風波,更讓社會大眾注意 AI 技術被濫用的嚴重性,呼請修法的聲浪不斷,希望政府能盡速遏止科技犯罪,不要再有下一個受害者。本文則介紹韓國、日本、歐盟各國的相關管制,擬以他山之石,一窺未來台灣可能的相關管制之道。

圖/envato elements

韓國:以 N 號房事件為鑑,修訂「性暴力犯罪法」

2019 年底,韓國爆發「N 號房事件」──受害規模之大不但震驚了整個韓國社會,也引發國際矚目。

「N 號房」營運的方式,是隨著付費等級提高,就能進入內容更加腥羶的色情房(總會員人數據傳高達 27 萬人);而在那些色情房中,也包含了以深度造假合成的不雅影像及照片為主題的群組。由於付費會員中不乏高社經地位人士,受害者眾多,也讓韓國的社會大眾意識到「數位性犯罪」的嚴重性。

當時韓國法規對數位性犯罪的規範相當不足 ,如同韓國的網路新聞所報導的,面對「換臉加散布」這樣的情況,只能用如《刑法》「提供猥褻物品(包含文書、圖畫或其他物品)罪」或《情報通信網法》中的「透過情報通信網對公眾散布、販賣、提供猥褻影像罪」來處罰,並以毀損名譽及侵害肖像權為由「請求損害賠償」。因此即使是如此眾所矚目的嚴重案件,在法律上實際要進行處罰,最重也不過是 1 年的有期徒刑及 1000 萬韓元(約台幣 25 萬元)的罰金,可說是相當輕微註一

-----廣告,請繼續往下閱讀-----
N號房參與者不乏高社經地位人士,讓韓國的社會大眾意識到「數位性犯罪」嚴重性(示意)。圖/envato elements

此外,法律專家們也指出另一個大漏洞──當時的法律並沒有依據能針對「使用深度造假製作虛偽影像的行為本身」施加處罰。也就是說,製作影片本身在當時並不違法,法律必須要等到行為人散布虛偽合成影像、讓影片接觸社會大眾,才能夠啟動處罰。

鑒於利用 AI 技術、合成虛偽影像對受害人已經是一大傷害;而至散佈虛偽影像對受害人來說(特別是被運用在成人情色片等猥褻物品方面),則應被視為極大的二度傷害。根據韓國法律新聞指出,2019 年統計受到「深度造假」換臉程式合成的被害人,高達 96% 是女性,其中 25% 是韓國的女性演藝人員。因此,韓國法界多半認為應直接針對活用深度造假虛偽影像的行為,量身打造可以直接適用的法律;也讓該國開始修定《性暴力犯罪之處罰等相關特例法》(下稱「性暴力犯罪法」)。

修法直接處罰「製作、散布及利用虛偽影像營利的行為」 

就在前述的修法呼聲中,2021 年 1 月 21 日,韓國修正施行了《性暴力犯罪法》相關規定,明文禁止利用深度造假製作虛偽影像等數位性暴力行為。

首先,該法會處罰「製作虛偽影像的人」,只要「抱著散布目的」,在「違反當事人的意思」的前提下,利用「他人面孔、身體或聲音製作攝影、影像、聲音等物」,進行「誘發性慾望和性羞恥心」的「編輯、合成、加工等行為」,就會受到 5 年以下有期徒刑和 5000 萬韓元(約台幣 125 萬元)以下罰金的處罰。

-----廣告,請繼續往下閱讀-----
製作、散布、以虛偽影像營利,皆會受到刑罰。 圖/envato elements

其次, 修正後的《性暴力犯罪法》 也會處罰「散布虛偽影像的人」。換句話說,只要將上述「經過編輯合成加工的虛偽影像(包含影像的複製物)」散布出去;且即使在「編輯當時」沒有違反當事人的意願,但事後散布這些虛偽影像時,已經違反當事人意願的話,也是違法的。針對散布的行為,將處以 5 年以下有期徒刑和 5000 萬韓元以下罰金。

接著,如果是「違反當事人意願,利用情報通信網散布虛偽影像來營利」的行為,更會處以 7 年以下有期徒刑。更嚴重的,如果「製作、散布、營利」三種行為全包了,則會加重總合刑度的 2 分之 1。並且,以上這些行為,全部都有處罰未遂犯。

另外,韓國更進一步把利用影片進行「強暴、脅迫及行無義務之事」的行為也列入處罰。像是「利用能夠誘發性慾望和性羞恥心的攝影物和複製物來進行脅迫」,處 1 年以下有期徒刑;又或是利用前述影片「脅迫妨害他人行使權利或使其行無義務之事」者,則處 3 年以下有期徒刑。而若有人統包這兩種行為的話,更會加重總合刑度的 2 分之 1。

修法之後仍未懲罰虛偽影像的「消費者」?

但是,即使制定了專門的處罰法規,還是有不足的地方。比方說,該法並未處罰「購買、消費深度造假影像的視聽者」。律師解釋,修改後的法規只處罰「製作、散布虛偽影像者」一方,並未針對「購買、消費虛偽影像」的另一方,設下處罰規範,也就難以針對「購買、消費虛偽影像的視聽者」予以管制註二

-----廣告,請繼續往下閱讀-----

那麼,對於購買深度造假虛偽影像的人,真的沒辦法處罰嗎?律師表示,《性暴力犯罪法》還是會針對「單純持有影像者」,處以 3 年以下有期徒刑及 3000 萬韓元(約 75 萬台幣)以下罰金──不過,本條的處罰前提是:必須證明行為人「把虛偽影像當成真實影像」購買保存,才可以認定為不法持有影像的行為而加以處罰。

但這樣的證明方式過於迂迴,因此韓該國法界多認為,應正視購買視聽對受害人帶來的莫大創傷,未來應明文處罰「購買及消費影像」之人,才能予以平衡。

目前韓國針對「購買、消費虛偽影像」的人,處罰規定不足。圖/envato elements

日本及歐盟:以「AI 倫理規範」防治不當使用

相對於韓國制定專法來防治數位性暴力,日本及歐盟則是建立「AI 利用倫理規範」,在利用 AI 的前階段,對未來的使用方式進行分類,賦予不同程度的行為義務。

2021 年 4 月 21 日,歐盟發表了《人工智慧統一管理規則的立法草案》(Proposal for a Regulation on a European approach for Artificial Intelligence)簡稱「人工智慧法」,依照危險性的高低及重要程度,將利用 AI 的行為分成 4 個類型——「不可接受的風險、高度風險、具限定性風險(有限風險)、極小/無風險」,並要求採取「禁止使用、提供情報、使用情況(如登入)之紀錄、協助主管機關監視 AI、由 AI 進行動作之通知義務、警告標示」等相對應義務。

-----廣告,請繼續往下閱讀-----

其中,如同日本學者川嶋雄作專欄文章所討論的,「使用深度造假操作技術,形成畫面、聲音、動畫」等利用行為,是被分類在「具有限定性的危險」。依據該法案,使用深度造假技術做出虛偽影像者,具有通知義務、需附加警告標語,必須告知觀眾這是使用 AI 技術所形成的影像註三

根據日本律師相關的分析內容,日本也採取了和歐盟相同的路線,不走法制化的路線,而著重推廣 AI 倫理 ,由政府部門和國際性企業為首,定期召開會議來檢討國內利用 AI 的情況。

像是日本學界就成立了「人工智慧學會」、內閣府(相當於我國的行政院)也召集了「人工智慧和人類社會之懇談會」、「AI 網絡社會促進會議」等組織,提出人工智慧倫理指南;該指南指出:不能透過人工智慧,直接或間接造成他人情報或財產侵害(安全原則),需尊重他人隱私,並落實誠實義務(透明化原則),並確保不得惡意使用之社會責任(適切原則)。而包括 SONY、日立等日系大廠,也都制定了自家的 AI 守則,來因應國際發展。

總的來說,日本與歐盟沒有立法,主要是針對 AI 的潛在危險性進行分類,並賦予相對的使用義務規範。不過,這樣的方式多少會限定特定 AI 的使用方式,因此是否有必要明文賦予拘束力,目前在歐洲委員會仍在檢討,各國仍尚未定案。而日本目前則是以公部門和企業為首,在配合國際趨勢下進行自主規範,並沒有打算進一步做出強制性的立法 。

-----廣告,請繼續往下閱讀-----

相較於韓國因發生嚴重案件而具體修正《性暴力犯罪法》,以遏止類似惡性事件再度發生;歐盟與日本目前仍採取倫理推廣的路線,透過針對 AI 技術的研發起源進行規範。孰優孰劣、未來又將如何發展?恐怕只有時間才能告訴我們了。

圖/envato elements

註解

  • 註一:韓國律師所舉出 2019 年當時可能用來處罰 DeepFake濫用的三個法規:首先是刑法第 244 條「提供猥褻物品(包含文書、圖畫或其他物品)罪」,可處罰 1 年以下有期徒刑和 500 萬韓元(約台幣 12.5 萬元)以下罰金。第二,依「情報通信網利用促進及情報保護等相關法律(情報通信網法)」第 44 條之 7,在「使公共得以接觸下,透過情報通信網散布、販賣、提供猥褻之符號、文件、聲音、畫像和影像等」,處 1 年以下有期徒刑和 1000 萬韓元(約台幣 25 萬元)以下罰金。最後是「名譽毀損」相關法規,對合成並提出猥褻物品者主張名譽毀損,及主張肖像權受侵害,提出損害賠償。
  • 註二:本標題段落參自:딥페이크 처벌법’ 신설하긴 했지만, ‘반쪽’ 짜리 법안입니다
  • 註三:體系圖參照「報道から見る欧州AI規則案の日本での受容と影響」,其中的圖 1:AI 規則案の全体像 。

參考資料

  1. 취향대로 골라보세요?” 한국 아이돌로 장사하는 딥페이크 포르노 ,2019年10月18日。
  2. 韓國《性暴力犯罪之處罰等相關特例法》。
  3. 딥페이크 처벌법’ 신설하긴 했지만, ‘반쪽’ 짜리 법안입니다 ,2021年1月14日
  4. 川嶋 雄作,AI規制は時期尚早か?「EUによる規制法案から考えるAI倫理」 , 独立行政法人経済産業研究所。
  5. InFoCom T&S World Trend Report,情報通信総合研究所主任研究員 栗原佑介,2021.5.31,「報道から見る欧州AI規則案の日本での受容と影響」。
  6. BUSINESS LAWYERS,注目度が高まるAI倫理と個人情報保護の関係 – カメラ画像の利活用を題材に –
  7. 經濟產業省,「我が国の AI ガバナンスの在り方 ver. 1.0 AI 社会実装アーキテクチャー検討会 中間報告書 」,令和3年1月 15 日 ,頁12。
  8. 網路安全所助理研究員 吳宗翰,「歐盟公布草案禁止 AI 用於社會評等」,國防安全雙周報。
-----廣告,請繼續往下閱讀-----
法律白話文運動_96
26 篇文章 ・ 531 位粉絲
法律白話文運動」是致力於推廣法律知識與法治思想的獨立媒體,願與讀者一起從法律認識議題,從議題反思法律。