時間來到 2021 年,美國參議院國土安全和政府事務委員會(The U.S. Senate Committee on Homeland Security and Governmental Affairs)通過《深度造假專案小組法案》(Deepfake Task Force Act),旨在建立一個公私合作成立的團隊。小組須提出足以檢測數位內容是否偽造的技術和系統,供大眾驗證資訊是否真實,以遏止深度造假技術帶來的危害。
禁止捏造意圖影響選舉結果的欺騙性影片。圖/envato elements
各地州政府針對Deepfake管制立法
而在州等級,也有關於深度造假的管制立法,像是維吉尼亞州、德州、加州。
2019 年,維吉尼亞州成為美國第一個針對未經同意的深度偽造色情內容,決定課以刑責的州。其設立「非法傳播或出售他人圖像罪」(Unlawful dissemination or sale of images of another),處罰任何以脅迫、騷擾或恐嚇為目的,或是未經他人同意,惡意傳播或出售以任何方式製作他人裸露影片或照片的行為。該罪被列為第 1 類輕罪,可處 2 年以下監禁、得併處罰款。
由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?
ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。
一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!
中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?
如果在「三跤㧣」選舉之下,選情的激盪從候選人的得票多少看不出來,那要從哪裡看?政治學提供的一個方法是把候選人配對 PK,看是否有一位候選人能在所有的 PK 中取勝。這樣的候選人並不一定存在,如果不存在,那代表有 A 與 B 配對 A 勝,B 與 C 配對 B 勝,C 與 A 配對 C 勝的 A>B>C>A 的情形。這種情形,一般叫做「循環多數」(cyclical majorities),是 18 世紀法國學者孔多塞(Nicolas de Condorcet)首先提出。循環多數的存在意涵選舉結果隱藏了政治動盪。
台大電機系畢業,美國明尼蘇達大學政治學博士,
現任教於美國德州大學奧斯汀校區政府系。
林教授每年均參與中央研究院政治學研究所及政大選研中心
「政治學計量方法研習營」(Institute for Political Methodology)的教學工作,
並每兩年5-6月在台大政治系開授「理性行為分析專論」密集課程。
林教授的中文部落格多為文學、藝術、政治、社會、及文化評論。