0

0
0

文字

分享

0
0
0

如何應對 AI 帶來的挑戰?解讀白宮人工智慧白皮書—《科學月刊》

科學月刊_96
・2016/12/25 ・3057字 ・閱讀時間約 6 分鐘 ・SR值 563 ・九年級

文/歐陽太閒|就讀美國哥倫比亞大學電機工程研究所博士班,研究領域為系統生物學、高通量定序資料分析與癌症生物標記。

圖/By Fonytas - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=47698042
圖/By Fonytas – Own work, CC BY-SA 4.0, wikimedia commons.

人工智慧(Artificial Intelligence, AI)廣泛地指有能力自行做出合理決策以解決現實世界中的複雜問題的人造系統,其可能有能力進行邏輯推理、計畫、知識學習、表達、自然語言處理(natural language processing)、感知(perception)和物理世界互動等。其相關研究曾在 1970 年代沉寂一時,但近十年來因為機器學習技術的進步、電腦運算與儲存成本的降低,以及大量的資料累積使其技術與應用快速發展,讓人工智慧系統不僅在以往被認為是人類專利的領域擊敗人類頂尖高手,例如 AlphaGo 戰勝了圍棋棋王,在實務應用上也獲得多項重大突破,例如程式化金融交易、異常金融操作自動預警已經獲得普遍應用,自駕車與無人機也已逐步邁向實用化,展現出人工智慧技術巨大的潛能,但也因此引出不少擔憂的聲音。

Alphago_logo_Reversed
人工智慧系統在以往被認為是人類專利的領域擊敗人類頂尖高手,例如 AlphaGo 戰勝了圍棋棋王。圖/By Google DeepMind, Google DeepMind AlphaGo Logo, Public Domain, wikimedia commons

白宮提出人工智慧白皮書

為了因應人工智慧快速發展可能帶來的衝擊,許多國際組織均已提出討論,如聯合國、經濟合作暨發展組織(OECD)、亞太經濟合作組織(APEC)等。各國政府與人工智慧學會也提出研究報告,其中美國白宮科學技術委員會(National Science and Technology Council, NSTC)於今(2016)年 10 月提出的白皮書,除了介紹當前人工智慧發展的概況外,也對人工智慧對社會帶來的衝擊提出回應方針,本文將以該白皮書的建議為基礎,提供臺灣政府與企業或可參考的方向。

就政策涵蓋範疇而言,泛用人工智慧(Artificial General Intelligence,或稱強人工智慧)可能有能力進行人類大部分的工作,但目前還不知道要如何建立這樣的系統,也不確定還需耗費多長時間才能研發成功,故除了需持續投入資源研究外,短期內不會對社會和政策造成太大影響。然而能解決特定問題的弱人工智慧則已經逐漸出現在日常生活中,除了熱門的自駕車外,能自動規劃行程的導航系統、購物網站的商品推薦功能都可以算是這樣的系統,而導入人工智慧的領域正在快速增長,並深入日常生活各層面,這才是政策上應該重視的部分。

-----廣告,請繼續往下閱讀-----

人工智慧的挑戰

人工智慧在公領域的應用正在起步,例如在美國匹茲堡(Pittsburg)城市內實驗將交通號誌交由人工智慧即時調控,讓交通等待時間和汽車廢氣排放改善了 21 ~ 42 %;華特瑞德國家軍事醫療中心(Walter Reed National Military Medical Center)已經導入人工智慧協助診療;芝加哥大學、南加州大學和史丹佛大學分別啟動嘗試藉人工智慧解決失業、輟學、遊民、貧窮等社會問題的研究計畫;美國政府亦提出資料導向司法(Data Driven Justice)和(shutterstock) 警察資料計畫(The Police Data Initiative),以藉人工智慧技術改善司法與警察體系的效率;在野生動物保育、國土監測方面的例子則有多國合作的海龜保育計畫「龜聯網(The Internet of Turtles)」。

11598815886_eb5841ec8f_z
人工智慧的運用已經愈來愈廣泛,甚至是運用在海龜的保育上。圖/By Ian Kennedy @ flickr, CC BY-SA 2.0

然而人工智慧的快速發展可能對社會帶來全新的挑戰。人工智慧在日常應用的普及化將可能導致教育水平和工資偏低的民眾失業,同時增加所得差距;也將改變現有的企業管理方式與成本結構,例如亞馬遜公司除在物流倉庫中導入機器人外,也已經開始讓人工智慧系統指揮倉庫中的人類員工工作、提升效率。相對而言,落後的企業將需要負擔更高的成本,難以和領先者競爭。

由於無人駕駛的交通工具將和有人駕駛的交通工具分享有限的道路和空域,因此需要修訂現有監理法規。若用於訓練人工智慧的資料品質不良,使得系統產生偏見,則可能導致其做出不公平的決策,例如法院的人工智慧輔助系統可能提出錯誤的司法建議,或者企業招募部門的系統審核求職申請時歧視申請者。人工智慧若應用於攸關生命與財產的領域,任何錯誤的決策或者系統遭受入侵都可能造成重大損失。

全心齊力突破挑戰

因此應對人工智慧帶來的挑戰並非易事, 需要產、官、學共同投入。公部門方面,政府應加強投資於相關研究與人力的訓練。目前美國非機密性的人工智慧研究計畫由聯邦政府的網路與資訊科技研發計畫(The Networking and Information Technology Research and Development Program)統一主管,去年投注在相關科技研發的經費是 11 億美元(新臺幣 348 億元),今年預估可達 12 億。同時也應該加強開放資料,但不僅僅是將檔案掃描成 PDF 放上網站,而是要將開放資料標準化成適於機器學習的格式(Open Data for AI),以便利各部門和民間人工智慧的發展。

-----廣告,請繼續往下閱讀-----
16141602477_82d6d91a2d_z
應對人工智慧帶來的挑戰並非易事, 需要產、官、學共同投入。它也會影響社會進而造成很大的變革。圖/By David Hsieh @ flickr, CC BY 2.0

因為工業界對於具有專才的研究人員需求快速增長使得薪水提升,因此應增加研究獎助預算、獎學金、實習機會、增聘教授與研究人員以吸引相關領域專家服務。而將人工智慧系統導入現實應用可能帶來無法預知的問題,一般政府部門除可聘用人工智慧專才改進現有系統外,也應邀集各領域專家協助新監管條例的建立與現有法規的修改,將使用人工智慧的裝置與載具納入法規的管理,並且對人工智慧系統的效能、可靠性和安全性訂出標準,保障公眾的安全也確保競爭的公平。也同時應加強政府與企業的資訊交流與合作,掌握最新的研究與應用進展,以及時做出回應。面對以人工智慧為基礎的自動化對經濟與就業市場的衝擊,則應制定政策使人工智慧帶來的經濟利益可以雨露均霑、公平分配,並研擬勞工就業問題的對策。

教育方面,學校應訓練更多具有資料科學專長的專家,如電腦科學家、經濟學家、資料庫與軟體工程師、資料分析家與圖書館員等。並且強化軟體開發課程中的相關方法、實務應用以及道德考量的訓練,並大力舉辦整合工業、社會、政府的人工智慧與資料科學競賽,確保勞動力熟悉其在各領域的實務應用。因為相關應用將進入生活中的所有層面,所以為確保民眾有足夠的資料素養(data-literacy)可以了解自身權益和參與相關政策的討論,資料科學教育可從小學開始。為了應對經濟衝擊,學校與職業訓練機構應提供學生與再進修人士學習相關技能的課程。

無論是政府或企業,發展人工智慧系統時都需要審慎評估其安全性,並使系統不會遭受入侵或不當運用,以免帶來生命財產的損失。人工智慧系統在研發、訓練和應用上都需要滿足公正、可問責(accountable)的要求,確保其的透明性、可控性和安全性,若發生意外時才可以釐清責任歸屬和保障民眾的權益。

人工智慧的發展與應用或許可以改善民眾生活,甚至帶動新一輪的經濟成長,但其影響也將遍及生活的所有層面,並帶來大量無前例可循的挑戰。這些挑戰不僅僅限於技術,更涉及道德、經濟、法律、社會,且發展速度極快,值得各界及早投入研究並提出對策。

-----廣告,請繼續往下閱讀-----

201612%e7%a7%91%e5%ad%b8%e6%9c%88%e5%88%8a

 

〈本文選自《科學月刊》2016 年 12 月號〉

什麼?!你還不知道《科學月刊》,我們 46 歲囉!

入不惑之年還是可以當個科青

-----廣告,請繼續往下閱讀-----
文章難易度
科學月刊_96
249 篇文章 ・ 3703 位粉絲
非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。

0

1
0

文字

分享

0
1
0
人與 AI 的關係是什麼?走進「2024 未來媒體藝術節」,透過藝術創作尋找解答
鳥苷三磷酸 (PanSci Promo)_96
・2024/10/24 ・3176字 ・閱讀時間約 6 分鐘

本文與財團法人臺灣生活美學基金會合作。 

AI 有可能造成人們失業嗎?還是 AI 會成為個人專屬的超級助理?

隨著人工智慧技術的快速發展,AI 與人類之間的關係,成為社會大眾目前最熱烈討論的話題之一,究竟,AI 會成為人類的取代者或是協作者?決定關鍵就在於人們對 AI 的了解和運用能力,唯有人們清楚了解如何使用 AI,才能化 AI 為助力,提高自身的工作效率與生活品質。

有鑑於此,目前正於臺灣當代文化實驗場 C-LAB 展出的「2024 未來媒體藝術節」,特別將展覽主題定調為奇異點(Singularity),透過多重視角探討人工智慧與人類的共生關係。

-----廣告,請繼續往下閱讀-----

C-LAB 策展人吳達坤進一步說明,本次展覽規劃了 4 大章節,共集結來自 9 個國家 23 組藝術家團隊的 26 件作品,帶領觀眾從了解 AI 發展歷史開始,到欣賞各種結合科技的藝術創作,再到與藝術一同探索 AI 未來發展,希望觀眾能從中感受科技如何重塑藝術的創造範式,進而更清楚未來該如何與科技共生與共創。

從歷史看未來:AI 技術發展的 3 個高峰

其中,展覽第一章「流動的錨點」邀請了自牧文化 2 名研究者李佳霖和蔡侑霖,從軟體與演算法發展、硬體發展與世界史、文化與藝術三條軸線,平行梳理 AI 技術發展過程。

圖一、1956 年達特茅斯會議提出「人工智慧」一詞

藉由李佳霖和蔡侑霖長達近半年的調查研究,觀眾對 AI 發展有了清楚的輪廓。自 1956 年達特茅斯會議提出「人工智慧(Artificial Intelligence))」一詞,並明確定出 AI 的任務,例如:自然語言處理、神經網路、計算學理論、隨機性與創造性等,就開啟了全球 AI 研究浪潮,至今將近 70 年的過程間,共迎來三波發展高峰。

第一波技術爆發期確立了自然語言與機器語言的轉換機制,科學家將任務文字化、建立推理規則,再換成機器語言讓機器執行,然而受到演算法及硬體資源限制,使得 AI 只能解決小問題,也因此進入了第一次發展寒冬。

-----廣告,請繼續往下閱讀-----
圖二、1957-1970 年迎來 AI 第一次爆發

之後隨著專家系統的興起,讓 AI 突破技術瓶頸,進入第二次發展高峰期。專家系統是由邏輯推理系統、資料庫、操作介面三者共載而成,由於部份應用領域的邏輯推理方式是相似的,因此只要搭載不同資料庫,就能解決各種問題,克服過去規則設定無窮盡的挑戰。此外,機器學習、類神經網路等技術也在同一時期誕生,雖然是 AI 技術上的一大創新突破,但最終同樣受到硬體限制、技術成熟度等因素影響,導致 AI 再次進入發展寒冬。

走出第二次寒冬的關鍵在於,IBM 超級電腦深藍(Deep Blue)戰勝了西洋棋世界冠軍 Garry Kasparov,加上美國學者 Geoffrey Hinton 推出了新的類神經網路算法,並使用 GPU 進行模型訓練,不只奠定了 NVIDIA 在 AI 中的地位, 自此之後的 AI 研究也大多聚焦在類神經網路上,不斷的追求創新和突破。

圖三、1980 年專家系統的興起,進入第二次高峰

從現在看未來:AI 不僅是工具,也是創作者

隨著時間軸繼續向前推進,如今的 AI 技術不僅深植於類神經網路應用中,更在藝術、創意和日常生活中發揮重要作用,而「2024 未來媒體藝術節」第二章「創造力的轉變」及第三章「創作者的洞見」,便邀請各國藝術家展出運用 AI 與科技的作品。

圖四、2010 年發展至今,高性能電腦與大數據助力讓 AI 技術應用更強

例如,超現代映畫展出的作品《無限共作 3.0》,乃是由來自創意科技、建築師、動畫與互動媒體等不同領域的藝術家,運用 AI 和新科技共同創作的作品。「人們來到此展區,就像走進一間新科技的實驗室,」吳達坤形容,觀眾在此不僅是被動的觀察者,更是主動的參與者,可以親身感受創作方式的轉移,以及 AI 如何幫助藝術家創作。

-----廣告,請繼續往下閱讀-----
圖五、「2024 未來媒體藝術節——奇異點」展出現場,圖為超現代映畫的作品《無限共作3.0》。圖/C-LAB 提供

而第四章「未完的篇章」則邀請觀眾一起思考未來與 AI 共生的方式。臺灣新媒體創作團隊貳進 2ENTER 展出的作品《虛擬尋根-臺灣》,將 AI 人物化,採用與 AI 對話記錄的方法,探討網路發展的歷史和哲學,並專注於臺灣和全球兩個場景。又如國際非營利創作組織戰略技術展出的作品《無時無刻,無所不在》,則是一套協助青少年數位排毒、數位識毒的方法論,使其更清楚在面對網路資訊時,該如何識別何者為真何者為假,更自信地穿梭在數位世界裡。

透過歷史解析引起共鳴

在「2024 未來媒體藝術節」規劃的 4 大章節裡,第一章回顧 AI 發展史的內容設計,可說是臺灣近年來科技或 AI 相關展覽的一大創舉。

過去,這些展覽多半以藝術家的創作為展出重點,很少看到結合 AI 發展歷程、大眾文明演變及流行文化三大領域的展出內容,但李佳霖和蔡侑霖從大量資料中篩選出重點內容並儘可能完整呈現,讓「2024 未來媒體藝術節」觀眾可以清楚 AI 技術於不同階段的演進變化,及各發展階段背後的全球政治經濟與文化狀態,才能在接下來欣賞展區其他藝術創作時有更多共鳴。

圖六、「2024 未來媒體藝術節——奇異點」分成四個章節探究 AI 人工智慧時代的演變與社會議題,圖為第一章「流動的錨點」由自牧文化整理 AI 發展歷程的年表。圖/C-LAB 提供

「畢竟展區空間有限,而科技發展史的資訊量又很龐大,在評估哪些事件適合放入展區時,我們常常在心中上演拉鋸戰,」李佳霖笑著分享進行史料研究時的心路歷程。除了從技術的重要性及代表性去評估應該呈現哪些事件,還要兼顧詞條不能太長、資料量不能太多、確保內容正確性及讓觀眾有感等原則,「不過,歷史事件與展覽主題的關聯性,還是最主要的決定因素,」蔡侑霖補充指出。

-----廣告,請繼續往下閱讀-----

舉例來說,Google 旗下人工智慧實驗室(DeepMind)開發出的 AI 軟體「AlphaFold」,可以準確預測蛋白質的 3D 立體結構,解決科學家長達 50 年都無法突破的難題,雖然是製藥或疾病學領域相當大的技術突破,但因為與本次展覽主題的關聯性較低,故最終沒有列入此次展出內容中。

除了內容篩選外,在呈現方式上,2位研究者也儘量使用淺顯易懂的方式來呈現某些較為深奧難懂的技術內容,蔡侑霖舉例說明,像某些比較艱深的 AI 概念,便改以視覺化的方式來呈現,為此上網搜尋很多與 AI 相關的影片或圖解內容,從中找尋靈感,最後製作成簡單易懂的動畫,希望幫助觀眾輕鬆快速的理解新科技。

吳達坤最後指出,「2024 未來媒體藝術節」除了展出藝術創作,也跟上國際展會發展趨勢,於展覽期間規劃共 10 幾場不同形式的活動,包括藝術家座談、講座、工作坊及專家導覽,例如:由策展人與專家進行現場導覽、邀請臺灣 AI 實驗室創辦人杜奕瑾以「人工智慧與未來藝術」為題舉辦講座,希望透過帶狀活動創造更多話題,也讓展覽效益不斷發酵,讓更多觀眾都能前來體驗由 AI 驅動的未來創新世界,展望 AI 在藝術與生活中的無限潛力。

展覽資訊:「未來媒體藝術節——奇異點」2024 Future Media FEST-Singularity 
展期 ▎2024.10.04 ( Fri. ) – 12.15 ( Sun. ) 週二至週日12:00-19:00,週一休館
地點 ▎臺灣當代文化實驗場圖書館展演空間、北草坪、聯合餐廳展演空間、通信分隊展演空間
指導單位 ▎文化部
主辦單位 ▎臺灣當代文化實驗場

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
210 篇文章 ・ 312 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

1

1
1

文字

分享

1
1
1
讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員
研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

-----廣告,請繼續往下閱讀-----

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

-----廣告,請繼續往下閱讀-----
所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3618 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

1
2

文字

分享

0
1
2
跨物種溝通即將成真!若有動物的「翻譯蒟蒻」你想擁有嗎?
鳥苷三磷酸 (PanSci Promo)_96
・2023/11/13 ・4484字 ・閱讀時間約 9 分鐘

-----廣告,請繼續往下閱讀-----

人與動物之間的溝通一直是科學界和哲學界十分引人關注的一個議題。傳統觀點認為,人類和其他動物之間的溝通受到生物學和語言能力的限制,因此很難實現真正的互相理解。然而,近年來,科學家們對這個問題的看法已經開始轉變,並且有一些跡象表明跨物種溝通有望成為現實。

為什麼科學家認為跨物種溝通即將成真?從海豚到水豚、從蜘蛛到山豬,人工智慧能成為所有生物的萬能「翻譯蒟蒻」嗎?當人類真的破解了另一物種的溝通方式,未來會發生什麼事呢?

跨物種溝通即將成真?圖/giphy

為什麼動物溝通,備「獸」關注?

從古代神話、經典傳說,到熱門動漫影視,都有不少能說人話、化為人形的動物,像是美猴王孫悟空、馴鹿喬巴、還有火箭浣熊,這些擬人化的角色雖然外表參雜獸的特質,卻往往更有人性,故事也著重呈現人與獸人如何從誤解到包容,讓我們為之動容。

在當代台灣的漫畫作品中,許多優秀的新一代漫畫家探討了擬人化動物和人類之間的隔閡、衝突以及理解,呈現了多元化的故事情節。其中,有一些引人入勝的作品,例如《瀕臨絕種團》,故事描述了被路殺後轉生成人類的石虎、黑熊和水獺,當上 YouTuber 還成為高中女生的故事。這個作品提供了獨特的視角,探討了不同物種之間的互動和冒險。

-----廣告,請繼續往下閱讀-----

另一部作品是《海巫事務所》,它將魔法元素融入生物學,講述了一個迷茫的廢業青年與擬人化海洋動物相遇並相互療癒的故事。還有一個短篇漫畫《IVE》,通過科幻的方式,描述了某種深海雌鮟鱇的繁殖和誘導機制,卻將目標對象設定為人類男性的謎般生物,及她和科學家之間的異色關係。

短篇漫畫《IVE》描述了有著雌鮟鱇的繁殖和誘導機制,卻將目標對象設定為人類男性的謎般生物,及她和科學家之間的異色關係。圖/CCC 追漫台

這些作品在畫風和故事情節方面都各有特色,無論你是一位一般漫畫愛好者還是偏愛條漫,你都可以在 CCC 追漫台找到它們,享受不同的視覺和情感體驗。

而這幾部作品的共通核心問題就是:如果動物能用人類的語言跟我們溝通,會怎樣?即使牠們能跟我們說話了,我們就能理解彼此嗎?要取得那唯一的真相,除了請出《不可知論偵探》海麟子(也是 CCC 追漫台 上的熱門作品),科學家還有一個辦法:就讓動物自己說話吧!今年 7 月 Science 期刊上發表了一篇觀點文章,標題為《用機器學習解碼動物溝通》表示新方法有望帶來全新的洞見,也有助於保育。不過在打電話給露洽露洽之前,我們得先了解什麼是動物溝通?

什麼是動物溝通?

首先要有一個清楚的認知,那就是人類跟所有其他的動物,都各自受限於自己的感官,活在不同的「環境界」(Umwelt),這個德文的意思是說每一種生物都活在獨有的感官泡泡裡,所見、所聞、所聽、所嚐、所觸都跟其他生物截然不同。你想想,連人與人之間都會因為家庭背景、生活環境、媒體教育而對同一件事物有天差地遠的詮釋了,對跨物種來說,不同的感官體驗讓彼此如同身處完全不同的世界。

-----廣告,請繼續往下閱讀-----

例如,海龜和許多鳥類能感知地球的磁場,藉此進行長距離遷徙;而響尾蛇具有紅外線感覺器官,能夠在黑暗中感知幾公尺外的獵物體溫。蝙蝠則使用回音定位來捕捉飛蛾等獵物,每秒發射兩百次超音波脈衝,並根據百萬分之一秒的時間差距來精準定位目標。斑海豹則依賴其特殊的鬍鬚來察覺魚游過的流體動力,猶如水中留下的軌跡。角蟬使用震動通信,能夠透過植物表面傳遞信息給其他角蟬,即使對人類來說是聽不見的。至於我們的忠實夥伴狗,它們的世界主要由氣味構成,能夠分辨地下埋藏的松露、潛藏的地雷、古蹟、毒品甚至主人身體內的腫瘤等各種氣味。

狗狗的世界主要由氣味構成。圖/giphy

那麼,海龜要如何跟我們這些沒有磁場感應的人類解釋牠們的感覺呢?蜂鳥又要怎樣才能描述它看到的一億種顏色呢?這真的是雞同鴨講,甚至比牛頭更不對馬嘴!

但有越來越多科學家認為,隨著人工智慧(AI)的快速進步,破譯動物的溝通方式不再是不可能的事情。AI 能幫上什麼忙呢?首先,機器不具備人類的偏見,因此能幫助研究者更理解動物溝通系統的結構和功能,同時辨識我們和動物之間的差異。

其次,機器學習技術能夠辨識那些對於人類難以想像或無法感知的動物感官訊號,這些包括聲音、振動、光線、化學物質等。機器可以幫助分析這些訊號,並幫助我們理解動物想要傳遞的訊息。

-----廣告,請繼續往下閱讀-----

最後,AI 還可以基於動物訊號,開發出預測動物行為的模型。例如預測動物的交配行為或遷徙模式,或何時可能需要尋找庇護避免捕食者。

此刻的我們對於深度學習能完美辨識圖像語音,以及 GPT-4 或 PaLM 2 等大型語言模型能生成語言,甚至跟我們交談,完全不覺得奇怪,但可能僅僅 10 年前,這都還像是天方夜譚。那麼將這份能力運用在動物身上,也將變得理所當然……嗎?

現在科學家已經做到什麼程度?破解了哪些動物語言呢?

科學家正在使用人工智慧來解讀各種物種的動物溝通方式。

例如烏鴉:英國聖安德魯斯大學的科學家 Christian Rutz 長期研究南太平洋的新喀里多尼亞烏鴉( New Caledonian Crow ),牠們是少數能夠製造工具的鳥類,會把樹枝的葉子拔掉,做成鉤子來釣蟲,不同群體的作法也有差異。他發現島上不同烏鴉群體有不同的叫聲,可能是文化得以傳播的關鍵。身為烏鴉專家的他加入了 ESP 地球物種計畫,研究二十年前已經野外滅絕,現在只剩圈養個體的夏威夷烏鴉,他們用機器學習來比較圈養跟野生烏鴉的錄音,了解圈養是否改變了烏鴉的詞彙,例如注意威脅、求偶等重要的叫聲,是否已經在圈養環境中失去了,如果我們破譯這些叫聲,可能可以幫助這些烏鴉重新野化。

-----廣告,請繼續往下閱讀-----
或許我們可以預測鯨魚會說什麼,反過來和牠們對話?圖/giphy

哺乳類的另一個成員鯨魚更是重點研究對象,2020年成立的 CETI,由 40 多名科學家、跨15 個機構組成,是最受關注的鯨語破譯團隊。他們除了駕船出海用水下麥克風偷聽鯨魚對話,也使用無人機從上方監看,更計畫在加勒比海海底安裝三個監聽站,從遠處捕捉離海岸 12 英里處抹香鯨聊天的喀噠咔嗒聲。以前啊,抹香鯨的聲音被比擬為單純的二進位代碼,但其實更為複雜,而機器學習可以重新辨識這些聲音。圖靈獎得主,加州大學柏克萊分校西蒙斯計算理論研究所所長莎菲·戈德瓦塞爾( Shafi Goldwasser )受訪時就說, CETI 的目標就是要像 ChatGPT 一樣,能預測鯨魚會說什麼,甚至反過來和鯨魚對話。

這些只是 AI 解讀的眾多物種中的一部分,其他還有不少鳥類、靈長類、海豚、蜘蛛、螞蟻、蜂類,或與人親近的貓、狗、豬等,也都是目前被科學家認為有機會破譯其「語言」的生物。

如果我們成功解讀出了動物的語言,我們又該從什麼角度與動物溝通?我們所「理解的語言」真的一樣嗎?

就算解讀動物溝通,能避免擬人化的陷阱嗎?

儘管機器學習在許多情況下表現出令人印象深刻的準確性,但動物的聲音、姿態和其他訊號往往具有多義性,也就是同一個訊號可能有多個意思,很難正確解釋它們的含義。此外,機器學習再強,目前也存在限制,特別是我們尚未完全理解的感知機制,如電感、磁感和費洛蒙等。

-----廣告,請繼續往下閱讀-----

在漫畫《瀕臨絕種團》跟《海巫事務所》中,動物跟人類除了偶爾吵架之外,基本上相處得極為融洽,這也是我們人類想像中希望的情境,就是能與動物友善地、無惡意地溝通。而在《 IVE 》這部異色科幻作品中,則提出更現實的問題。汪幼海博士認為 IVE 為了與人接觸,如鮟鱇魚一般的餌球竟然為了吸引人類而變成人形,甚至可以與人溝通。雖然令人驚喜,但這也意味 IVE 的目的就是要讓人類成為其血肉的一份子,獲取其基因,因此也使用類似費洛蒙的物質吸引人類男性。對鮟鱇魚或 IVE 來說,這是很自然、毫無惡意的,但對人類來說,就是一種恐懼的殺戮。大自然中本來就有許多「愛」是以殺為結局,包括蜘蛛、螳螂等。人類又要如何在對事物理解前提完全不同的情況下,與動物更深度溝通呢?

圖/pexels

在科學研究上,我們情不自禁地把動物擬人化更是個麻煩且不容易解決的問題,要是過於擬人化地認為動物跟人類共享一樣的情感,可能導致研究者在實驗設計和解釋結果時受到情感干擾,使研究不客觀。此外,擬人化也會使研究者更容易面臨到底是該保護動物權益,還是進行實驗研究之間的衝突,陷入倫理的困境。

但若反過來,要是有科學家認為動物跟人類完全不同,因此缺乏同情心,不尊重動物權益,倫理問題只會更嚴重。現在大家對動物福祉很關注,尤其是在涉及動物實驗和野生動物保護的時候,研究人員對動物無感情的態度反而可能導致研究受到質疑。更重要的是,這會讓科學家缺乏共鳴和洞察力,忘記我們也是動物。因此啊,如何拿捏分寸,在過分擬人跟缺乏同情的兩端之間找到適當的位置,也是動物溝通研究者的重要問題。

人類會將破譯動物溝通的能力拿來善用嗎?怎樣算是善用呢?

在石虎、黑熊跟水獺轉生變高中女生、IVE 開始對人類有興趣之前,機器學習的確可幫助我們監控和保護瀕臨絕種的野生物種,透過解讀其溝通方式,更了解牠們的需求和行為,制定更有效的保育策略。也能夠幫助我們理解圈養動物的情感和需求,從而改進在人類照顧下的生活品質。

-----廣告,請繼續往下閱讀-----

然而,當播放動物聲音以吸引它們或干擾它們時,會不會對它們的行為產生不可預測的影響?甚至不可逆地改變群體的文化,從而威脅它們的生存和生態系統的平衡?假訊息在人類世界已經夠麻煩的了,想像一下,若連動物世界也都被假訊息入侵時,會發生什麼事呢?

CCC 追漫台是一個臺灣原創漫畫平台

致力於推廣臺灣漫畫,並將臺灣漫畫融入日常生活。這個平台由本土新銳圖文創作者們打造,並結合國家典藏資料素材,以探索臺灣的豐富歷史、民俗、社會和生態等多元議題。

CCC 追漫台的使命是透過原創漫畫作品,傳達臺灣在地精神,讓讀者深入了解這個多元文化的島嶼。通過精心創作的漫畫,平台不僅提供了具娛樂性的閱讀體驗,還擴展了讀者對臺灣文化和歷史的認識。

文章中提及之漫畫皆可在追漫台上閱讀唷。

-----廣告,請繼續往下閱讀-----
鳥苷三磷酸 (PanSci Promo)_96
210 篇文章 ・ 312 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia