時間來到 2021 年,美國參議院國土安全和政府事務委員會(The U.S. Senate Committee on Homeland Security and Governmental Affairs)通過《深度造假專案小組法案》(Deepfake Task Force Act),旨在建立一個公私合作成立的團隊。小組須提出足以檢測數位內容是否偽造的技術和系統,供大眾驗證資訊是否真實,以遏止深度造假技術帶來的危害。
各地州政府針對Deepfake管制立法
而在州等級,也有關於深度造假的管制立法,像是維吉尼亞州、德州、加州。
2019 年,維吉尼亞州成為美國第一個針對未經同意的深度偽造色情內容,決定課以刑責的州。其設立「非法傳播或出售他人圖像罪」(Unlawful dissemination or sale of images of another),處罰任何以脅迫、騷擾或恐嚇為目的,或是未經他人同意,惡意傳播或出售以任何方式製作他人裸露影片或照片的行為。該罪被列為第 1 類輕罪,可處 2 年以下監禁、得併處罰款。
由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?
ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。
一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!
中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?
讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。
-----廣告,請繼續往下閱讀-----
怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?
會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。
後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。
AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?
如果在「三跤㧣」選舉之下,選情的激盪從候選人的得票多少看不出來,那要從哪裡看?政治學提供的一個方法是把候選人配對 PK,看是否有一位候選人能在所有的 PK 中取勝。這樣的候選人並不一定存在,如果不存在,那代表有 A 與 B 配對 A 勝,B 與 C 配對 B 勝,C 與 A 配對 C 勝的 A>B>C>A 的情形。這種情形,一般叫做「循環多數」(cyclical majorities),是 18 世紀法國學者孔多塞(Nicolas de Condorcet)首先提出。循環多數的存在意涵選舉結果隱藏了政治動盪。
台大電機系畢業,美國明尼蘇達大學政治學博士,
現任教於美國德州大學奧斯汀校區政府系。
林教授每年均參與中央研究院政治學研究所及政大選研中心
「政治學計量方法研習營」(Institute for Political Methodology)的教學工作,
並每兩年5-6月在台大政治系開授「理性行為分析專論」密集課程。
林教授的中文部落格多為文學、藝術、政治、社會、及文化評論。