……思覺失調症(Schizophrenia),是一種腦部疾病。其決定性特徵是「精神症狀」,或者與現實脫節。妄想(Delusion)與幻覺(hallucination)是這個疾病的特色。妄想,是固著且不真實、顯然與證據相悖的信念,而幻覺則是不真實的感知經驗。…當我的精神症狀發作時,我常會有自己已經用意念殺了數十萬人的妄想。……我會產生幻覺:例如有次我回頭看到一個男人,高舉著刀。想像在你清醒時持續做著噩夢。……罹患了思覺失調的人,他的心智不是分裂的,而是粉碎的。……他們並非僅是思覺失調症患者(schizophrenics);他們更是罹患了思覺失調症的人(people with schizophrenia)。
——Elyn Saks,,南加大Gould法學院法律、心理與精神醫學教授;慢性思覺失調症患者。錄自其2012年6月,於蘇格蘭愛丁堡TED大會發表的演說 A Tale of mental Illness – From the Inside。
2009 年風靡全球的電影《阿凡達》(Avatar),預計將在 2022 年底推出續集《阿凡達:水之道》(Avatar: The Way of Water)。當年第一集的劇情裡,下半身癱瘓的男主角,透過控制他的替身,而得以重新站起來。[1, 2]片名的英文單字「avatar」原有多重涵義,例如:虛擬世界的替身、印度教神祇的化身、代表某概念的人物等。[3]在現實世界中,以替身來彌補殘疾的概念,正是科技發展的潮流。2018 年日本的Avatar Work 技術,讓身障者從遠端操控機器人OriHime-D,為咖啡廳的客戶服務。[4]在不遠的將來「元宇宙」(metaverse)中的「虛擬替身」,也能給他們更便利的社交空間。[5]然而,有沒有什麼替身科技,是為精神障礙人士量身訂製的呢?
日本的 Avatar Work 技術,讓身障者從遠端操控機器人 OriHime-D,為咖啡廳的客戶服務。(來源:LTN on YouTube)
第二階段「關係、發展與情緒處理」(Relational, Developmental and Emotional Processes):在對話中導入自傳性的內容,試圖創造生命的意義,解決過往創傷,並重拾力量。受試者練習對抗幻聽(替身)的壓迫,由爭執中抽離,不從「它」或別人的角度看待自己。其中有些人藉此重塑被歧視的經驗,並接受自我;與幻聽中逝者的聲音(替身)對話,以撫平傷痛;或是勇敢面對羞愧自責的內在情緒,準備重新融入社會。結束前,則聚焦未來,討論對病患有意義的復原計劃。[12]
網紅小玉的「換臉私密影片」犯罪事件,讓深度造假(DeepFake)技術一夕之間成為台灣廣為人知的的技術。而此次風波,更讓社會大眾注意 AI 技術被濫用的嚴重性,呼請修法的聲浪不斷,希望政府能盡速遏止科技犯罪,不要再有下一個受害者。本文則介紹韓國、日本、歐盟各國的相關管制,擬以他山之石,一窺未來台灣可能的相關管制之道。
相對於韓國制定專法來防治數位性暴力,日本及歐盟則是建立「AI 利用倫理規範」,在利用 AI 的前階段,對未來的使用方式進行分類,賦予不同程度的行為義務。
2021 年 4 月 21 日,歐盟發表了《人工智慧統一管理規則的立法草案》(Proposal for a Regulation on a European approach for Artificial Intelligence)簡稱「人工智慧法」,依照危險性的高低及重要程度,將利用 AI 的行為分成 4 個類型——「不可接受的風險、高度風險、具限定性風險(有限風險)、極小/無風險」,並要求採取「禁止使用、提供情報、使用情況(如登入)之紀錄、協助主管機關監視 AI、由 AI 進行動作之通知義務、警告標示」等相對應義務。
其中,如同日本學者川嶋雄作專欄文章所討論的,「使用深度造假操作技術,形成畫面、聲音、動畫」等利用行為,是被分類在「具有限定性的危險」。依據該法案,使用深度造假技術做出虛偽影像者,具有通知義務、需附加警告標語,必須告知觀眾這是使用 AI 技術所形成的影像註三。
根據日本律師相關的分析內容,日本也採取了和歐盟相同的路線,不走法制化的路線,而著重推廣 AI 倫理 ,由政府部門和國際性企業為首,定期召開會議來檢討國內利用 AI 的情況。
像是日本學界就成立了「人工智慧學會」、內閣府(相當於我國的行政院)也召集了「人工智慧和人類社會之懇談會」、「AI 網絡社會促進會議」等組織,提出人工智慧倫理指南;該指南指出:不能透過人工智慧,直接或間接造成他人情報或財產侵害(安全原則),需尊重他人隱私,並落實誠實義務(透明化原則),並確保不得惡意使用之社會責任(適切原則)。而包括 SONY、日立等日系大廠,也都制定了自家的 AI 守則,來因應國際發展。
總的來說,日本與歐盟沒有立法,主要是針對 AI 的潛在危險性進行分類,並賦予相對的使用義務規範。不過,這樣的方式多少會限定特定 AI 的使用方式,因此是否有必要明文賦予拘束力,目前在歐洲委員會仍在檢討,各國仍尚未定案。而日本目前則是以公部門和企業為首,在配合國際趨勢下進行自主規範,並沒有打算進一步做出強制性的立法 。
相較於韓國因發生嚴重案件而具體修正《性暴力犯罪法》,以遏止類似惡性事件再度發生;歐盟與日本目前仍採取倫理推廣的路線,透過針對 AI 技術的研發起源進行規範。孰優孰劣、未來又將如何發展?恐怕只有時間才能告訴我們了。