2

31
1

文字

分享

2
31
1

機器人的生命權力——《再.創世》專題

再・創世 Cybernetic_96
・2021/08/25 ・4697字 ・閱讀時間約 9 分鐘

  • 作者/高涌泉

人有人權,機器人是否應該也有某種類似於人權的權力(姑且稱之為「機器人權」)?目前這個問題還沒有被大眾認可的標準答案,因為我們還不知道機器人是否值得擁有機器人權。以當下(2021)最先進的機器人來說,我想多數人對於將它「關機」,不會有絲毫猶豫,就像我們可以毫不在意地任意關掉(或開啟)最先進的蘋果電腦。也就是說,當前最先進的機器人還沒有先進到需要我們去擔心關機是否影響它的福祉(生命)。但是未來呢?當,譬如說,一萬年之後 ( 或許不用那麼久,說不定一千年之後即可?)的機器人,已具備人性(我稍後會討論出現這種狀況的機率),那時人類應該允許機器人擁有機器人權嗎?

機器人是否也應有屬於自己的機器人權。圖/Pexels

科幻電影中的機器人

對於這個假設性問題,好萊塢已經給了答案——你所能想像的狀況大約已經出現於某部科幻電影裡。有一類情境相當常見,讓我舉幾部很好看的片子為例來說明:

  1. Ex Machina人造意識,也譯為機械姬;據說拉丁文片名本意是「來自機器」)。片中的女機器人在主人的設計下,已經具有足以通過「圖林測試」(Turing Test)的智能,但是她還進一步發展出主人所不知的自主意識,最終為了自由而殺死把機器人當作娛樂工具的主人。
  2. Blade Runner銀翼殺手)。此片的機器人是仿生人,在外貌、語言以及行動上,與人類沒有區別,和 Ex Machina 中的機器人相比,好似更加先進,然而其機器人本質還是可以被一項對於情緒反應的測試揭發(有如測謊器的功能),片中機器人當然也被安排會為了避免「被退休」而殺人。
  3. I, Robot機械公敵)。片中機器人在外貌上,與人類有明顯區分,它們被製造來服務人類,有遠超越人類的體能,因此必須遵循艾西莫夫「機器人三定律」(第一定律:機器人不得傷害人類,或坐視人類受到傷害;第二定律:機器人必須服從人類命令,除非命令抵觸第一定律;第三定律:機器人在不違背前兩定律的情況下,必須保護自己),此片也一樣安排讓機器人產生某種程度的自主意識(主角機器人甚至會做夢),以及與人類的衝突。

以上三部科幻片的共同點是人類製造出的機器人終究會產生某種具自由意志的心智,並且會捍衛自己生存的權利、抗拒人類的宰制。這種「覺醒、反抗、勝利」三部曲的故事也廣為其他科幻電影所採用。(有一部叫好叫座、由 HBO 推出的科幻電視影集 Westworld西方極樂園)也是大致循這樣的套路。)事實上,這樣的套路也出現在非科幻的一般劇情片中,大約是這種勵志招式符合某種人類的心理需求,所以很受歡迎。總之我們從機器人科幻片學到了兩件事:一是我們與機器人的關係取決於機器人能否產生自我意識(心靈),而且大家願意相信機器人應該終究會具有這樣的能力;第二是對於我們應該賦予機器人多少「機器人權」的問題,無論我們如何操心,恐怕不是重要的事,因為就如「人權是爭取來的,不是靠施捨的」,「機器人權」的內涵還是由機器人決定。不過這兩點若真要仔細推敲,就會發現可以質疑的地方非常多。

科幻片中人類製造出的機器人終究會產生某種具自由意志的心智 。圖/Pexels

機器人適用心物二元論還是原子論?

首先,到底什麼是機器人?對此我一直沒有下個定義,因為不需要:大家都很清楚機器人儘管在外型與行為上,有很多種類,但一定都是人造的。所以機器人就是人造人(或人工人),是人類用材料製造出來的。所謂的材料就是物質,物質拆解到最後,就是各種原子罷了。所以機器人都是原子組裝出來的。但是人類不也是由原子組成的嗎?為什麼人不是機器人?或者,人其實也是一種是機器人?也就是說人也不過是一群原子依據某種明確的指令(程式、算則)在運行罷了!然而自古以來,不斷有哲學家懷疑這樣的看法,因為大家想不透在這樣的假設下,自由意志(俗稱靈魂)如何能夠出現?如果不行,也就是說靈魂這東西和物質屬於兩個範疇(即所謂的二元論),那麼人當然就不是機器人了:人有靈魂,機器人沒有。

-----廣告,請繼續往下閱讀-----

但是自古以來也有不少人不相信二元論,例如古希臘的原子論者就不相信有獨立的靈魂這回事,以法國哲學家柏格森(Henri Bergson)的話說,原子論者相信的是「身體、靈魂、所有的物體以及世界,都是由原子所構成的。自然現象和思維都只是原子的運動而已。一切的事物與現象都是由原子、原子之間的真空(void)、以及原子的運動所組成的。除此之外,就沒有其他東西了。」如果原子論終究是對的,那麼人便只是一類較高明的機器人罷了!

那麼到底二元論與原子論兩者間哪一個比較有道理?(當然了,聰明的哲學家還發明出其他更繁複細膩,或者說更怪異有趣的理論,例如原子本身就是有意識之物體的說法等等,感興趣的人可以自行探究。)自近代科學出現以來,由於物理、化學與生命科學以及電腦科學的快速進展,眾多科學家自然地認為原子論的觀(自然現象和思維都只是原子的運動而已)是一件合理的假設,理解意識如何出現在腦子裡於是成為眾多研究的目標。

認知思考的想像實驗

美國哲學家瑟爾(John Searle)在 1980 年提出一項想像實驗(類似的想法其他人也有),試圖證明意識絕不是物質加上(電腦)程式就能產生的,具體說,即電腦不可能具有思考能力。他這個想像實驗一般稱為「中文房間論證」(Chinese room argument),讓我用一個不同於瑟爾原始版本、但我想仍不失其意的簡化版來說明這個論證:設想在某房間裡有位美國哲學家,他不懂中文與日文,但是能夠依據指令行事,房間裡有個資料庫,裡面有一份中日文字對照表(對哲學家來說,這裡的中日文字都只是奇怪的符號而已)及一本以英文寫的中日文語法規則簿(即中日文字對照表內符號之間應遵循的關係),我們將一篇中文文章送進房裡,這位先生就依據房間裡的資料庫,將這篇文章「翻譯」成日文,然後送出房間。房間外的人會以為這篇文章是房間內有位懂中文與日文的人所做的翻譯,但是瑟爾說房內的哲學家根本不知道他所經手的文章在講些什麼。

以行話說,瑟爾想示範的是掌握了「語法」(syntax)不意味就了解「語意」(semantics),而不了解語意就談不上認知與思考。總之,瑟爾的重點是知道依據明確的規律來操弄符號(這是所謂「人工智慧(智能)」(AI)的功能)儘管有翻譯的本事,但仍不具認知、理解與思考的能力,也就是他不相信電腦(AI)能夠導致意識與心靈。瑟爾的講法引發大量評論,有人主張自由意識根本是個幻覺(當然另有人說這麼想的人錯得離譜),也有人主張人腦與電腦有根本差異(但是究竟差異為何,則意見紛雜)等等。

-----廣告,請繼續往下閱讀-----

在我的簡化版本中,瑟爾的想像實驗假設了機器翻譯是行得通的(但是即便如此,機器還是沒有意識可言),不過長久以來,機器翻譯其實一直沒有太大的進展。然而近年來由於大數據與深度學習方法的出現,機器翻譯的水準已經頗為可觀,儘管還算不上完美,但是已經不像更早些時,譯文漏洞百出,明顯就不是人為的。同樣地,深度學習也讓電腦下棋(無論是西洋棋或是圍棋)的功力,遠遠超越人類棋手。在翻譯與下棋之外,電腦還有很多令人刮目相看的新本事(傳統的本事當然是其快速計算的能力),所以就算電腦還談不上有真正的意識(無論這是什麼意思)可言,不少人(包括我)已經感到震撼。

經深度學習後,電腦也可以下西洋棋。圖/Pexels

對於意識等抽象概念的探討,如果沒有具體的例子作為對象,容易流於空泛,莫衷一是。目前在人類之外,什麼東西可能擁有某種程度的意識?動物是個明顯的答案,無怪乎科學家與哲學家對於動物的心智很感興趣。不過動物心智也不容易捉模,相關意見也一樣紛雜。據說,主張心物二元論的笛卡爾就認為由於動物沒有語言能力,因此談不上具有心智,不過我想很多養過寵物的人恐不會接受這個見解。

動物的心智與生存權

我自己雖不養寵物,但全然認同(起碼有些)動物是具有心智的。主因是我在過去五、六年間,迷上了在 YouTube上觀賞對於白頭鷹(bald eagle)的巢 24 小時全天候(晚上有紅外光夜視)的實況轉播。簡單講,整個情況就像電影 Truman Show(楚門的世界)的白頭鷹版——除了白頭鷹的真實生活比虛假的楚門世界要有趣太多了。白頭鷹是美國國鳥,曾一度列入瀕臨滅絕物種(endangered species)名單,後來在種種保護措施(包括禁止殺蟲劑 DDT)下,族群數量才逐漸回升。白頭鷹是美麗的大型鳥,位於食物鏈頂端,有王者氣質,令人著迷。現在網路上可以找到很多位於世界各地的這種稱為「白頭鷹巢實況監視」(live bald eagle nest cam)的 YouTube 頻道,我最早看的是一個位於美國首都華盛頓特區的巢:多年來,有一對白頭鷹固定在那裡築巢、育(鷹)嬰,人類鷹迷們分別暱稱公、母鷹為「總統先生」與「第一夫人」;它們每年秋季回到這裡,修整離地數十公尺的巢、交配、產卵、孵卵、撫育幼鷹,直到幼鷹於初夏可以自行飛翔離巢。

位於食物鏈頂端,具有王者風範的白頭鷹。圖/Pexels

對於我這樣剛入門的觀鳥人,白頭鷹的一切生活習性都很有意思。例如,幼鷹一但接連破殼而出,殘酷的「手足競爭」(sibling rivalry)立即登場,父母不會介入這種(從觀眾留言可知,令不少人不忍心看的)天生的競爭,弟妹在受到兄姊的壓制之後,很快學到要避開對方的攻擊,並且如何在適當時機,迅速從父母口中搶到食物。又例如,公鷹規律地獵捕魚、松鼠等動物回巢,轉交母鷹餵食幼鷹。還有令我特別訝異的——父母會在下雨(雪)或大太陽時張開翅膀護著幼鷹。

-----廣告,請繼續往下閱讀-----

觀鷹久了,我發現自己能夠預測老鷹的企圖,或者說可以領會老鷹在「想」些什麼、在動些什麼「心思」。老鷹儘管沒有語言,但是能夠發聲「呼喚」、「警告」、「恐嚇」其他老鷹或其他生物。我一點也不懷疑白頭鷹具有某種程度的心智。(知名哲學家奈格爾(Thomas Nagel)在 1974 年發表了一篇文章「身為蝙蝠會有什麼樣的感受?」(What is it like to be a bat?),他此文的主張就是,不是蝙蝠的我們永遠不會知道蝙蝠的主觀感受是什麼。我自以為多少了解白頭鷹的心思,當然是不認同奈格爾的主張可以推廣至白頭鷹。)為什麼白頭鷹能夠具有心智,而機器人沒有?這就是當代心智研究的基本問題。我猜測關鍵在於演化與成長歷史:白頭鷹是經過長期自然演化而產生的物種,從出生至獨立成熟也有個成長過程,而機器人卻不是如此。

動物應該擁有生存權,尤其是那些我們覺得具有某種心智能力的動物,這是很多人認可的事(在很多社會這件事其實已經成為法律)。白頭鷹的生存受到保護,數目也逐年增加,愛鷹人士都很高興。但是如果白頭鷹的數目因為保護而過度增加以至於影響了人類的利益呢?是不是白頭鷹的生存權也應受到限制呢?(對於某些動物,這種情況不是已經出現了嗎?)總之,動物權的範圍操之於人類。

機器人目前的處境還遠在動物之下,我看不出機器人如何能夠因產生心智而改變這種狀況。即便機器人因本事提高,讓我們將它們如同白頭鷹看待,它們生存權的範圍大小,仍是取決於人類,除非它們的聰明才智超越包括人類在內的一切動物。

人類目前的科技水準還處於初級階段,或許在很久很久以後,人類可以製造出和蚊子一樣靈活的「機械蚊」,那時才開始來操心所謂機械人權的問題還不晚。

-----廣告,請繼續往下閱讀-----
文章難易度
所有討論 2
再・創世 Cybernetic_96
11 篇文章 ・ 29 位粉絲
由策展人沈伯丞籌畫之藝術計畫《再・創世 Cybernetic》,嘗試從演化控制學的理論基礎上,探討仿生學、人工智慧、嵌合體與賽伯格以及環境控制學等新知識技術所構成的未來生命圖像。

2

0
0

文字

分享

2
0
0
有圖有真相嗎?要怎麼分辨 AI 生成影像避免受騙?
泛科學院_96
・2024/04/28 ・719字 ・閱讀時間約 1 分鐘

-----廣告,請繼續往下閱讀-----

2 月 15 日 OpenAI 發佈 Sora,隔一周後 Stable diffusion 3 隨後推出,以前人家都說有圖有真相,現在眼見不實的時代要來臨了,你說?還有什麼可以相信的?

AI 生成的影像到底有沒有方法可以辨識出來?今天,我們來談談近期關於辨識 AI 生成,找出 AI 生成的破綻!

先說結論,理論上可以!但現實很困難,很容易被破解,這集我們回答三個問題:

  1. AI 生成影像有什麼破綻?
  2. 還有哪些方法可以辨別 AI 生成的影像?
  3. 最後來談談這些辨識方法,在現實中會遇到什麼問題?

回到最基礎的問題眼見不再為憑,接下來只會越來越多,不會越來越少,謠言進化成謠圖跟謠影片,現在還真的沒有其他武器,來辨識 AI 生成的內容,說到底還是得回歸自身的媒體識讀、確認訊息來源!

-----廣告,請繼續往下閱讀-----

最後也想問問你,在這個大 AI 生成的時代,你會怎麼避免自己被 AI 騙呢?

  1. 相信大公司,相信聯合制定的浮水印規範終將落實
  2. AI 問題要用 AI 解決,相信辨識系統一定會完成
  3. 網路上的影像全是假的,是我眼睛業障重
  4. 其他答案也歡迎留言分享

更多、更完整的內容,歡迎上科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

所有討論 2
泛科學院_96
33 篇文章 ・ 42 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

2

0
0

文字

分享

2
0
0
AI 生成影像有多接近真實世界?人類將製造出世界模擬器?
泛科學院_96
・2024/04/22 ・670字 ・閱讀時間約 1 分鐘

Sora 號稱自己是世界模擬器,但真的嗎?

這個問題,AI 大佬與研究者們比你更關心!

Sora 推出後不到一個月,不僅各大研究機構像開掛般發表相關論文,連 Nvidia、Meta、微軟,甚至是特斯拉創辦人 Elon Musk 也都跳出來分享看法⋯⋯

今天呢,我們從論文與 AI 大佬們的意見,來回答這兩個問題:

-----廣告,請繼續往下閱讀-----
  1. 為什麼 Sora 敢稱自己是世界模擬器?
  2. 世界模擬器離我們還有多遠?

說了那麼多,最後想問各位,你覺得照這個速度發展下去,你覺得會先成真呢?

  1. 通用型人工智慧
  2. 人類移民火星
  3. 都看不到,人類要滅亡了

歡迎在下面留言大家分享討論。喜歡這支影片的話,也別忘了按讚、訂閱,加入會員,下集再見~掰!

更多、更完整的內容,歡迎上科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

所有討論 2
泛科學院_96
33 篇文章 ・ 42 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

1

1
1

文字

分享

1
1
1
讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員
研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3441 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook