0

0
0

文字

分享

0
0
0

【Gene思書齋】該如何在道德部落間建立對話、凝聚共識?

Gene Ng_96
・2016/03/15 ・4491字 ・閱讀時間約 9 分鐘 ・SR值 581 ・九年級

 

有許多公共議題的辯論,真的很叫人傷透腦筋,例如該廢死嗎?該開放移民嗎?該抽富人重稅作重分配嗎?同性戀婚姻該合法嗎?墮胎該合法嗎?該限制發展來保護環境嗎?鄉民的正義,在這些議題的討論中,常常是不缺席的。就算是理性的討論,正反方都能提出有理的論據,在教育中不太強調思辯的亞洲社會,尤其令人難以抉擇,所以乾脆憑感覺,或者不理會而去小確幸了……

可是問題不會在大家都在小確幸時就自動解決,於是該自暴自棄地說,反正就鬼島嘛!其實,只要一天沒有足夠多的人來公民參考地理性思辯,我們就只能坐等權益被即得利益者一步步地剝削下去,因為愚民,是當權者最愛的奴隷。

可是理性的討論,有多難呢?在太陽花學運期間,因為支持或幹譙的不同立場,就讓我不少朋友,在臉書上狂刪朋友!很多被刪的,還不止是臉友,而是現實中真的認識的人。有些朋友在政治上的立場和我相反,看了火大,也讓我取消追蹤好幾位朋友,據說因為不爽我的立場,取消追蹤我或刪除朋友的,也有十幾人了吧~

有本好書《好人總是自以為是:政治與宗教如何將我們四分五裂》(The Righteous Mind: Why Good People are Divided by Politics and Religion),就是在探討大家對公共議題,為何會爭得面紅耳赤(請參見〈好人真的總是自以為是?〉)。《好人總是自以為是》作者強納森‧海德特(Jonathan Haidt)指出,許多心理學和神經科學的研究顯示,我們的許多道德判斷,是直覺先來,策略推理後到的。

-----廣告,請繼續往下閱讀-----

海德特提出柏拉圖(Πλάτων,約公元前427-前347)、哲斐遜(Thomas Jefferson,1743-1826)和休姆(David Hume,1711-1776)的主張,柏拉圖認為理性是主人,哲斐遜認為理性和感性是平等共治的,休姆認為理性是熱情的僕人。他提出許多研究證據顯示休姆可能才是對的。他把心智比喻作象和騎象人,指出心智好比騎象人(控制式歷程)騎在大象(自動化歷程)上。

騎象人逐步演化為服侍大象。我們的道德判斷有強烈的直覺,理由是事後努力建構的。因為騎象人是服侍大象的,所以他指出,想要在道德和政治議題上說服別人,要先和大象對話。海德特舉出大量的心理學和神經科學研究來說明,為何是直覺先來,策略推理後到。

《好人總是自以為是》是一本給了我許多啟發的好書,我寫書評介紹好書有兩三百本了,有本讓我見到朋友就大力推薦的好書,其實並不多。但是,《好人總是自以為是》是我認為,如果今天只想讀一本嚴肅的書,就讀這一本的好書!

無獨有偶,今年中也有本用心理學、神經科學與道德哲學來談道德的一本書,是哈佛心理學家約書亞‧格林(Joshua Greene)的《道德部落:道德爭議無處不在,該如何建立對話、凝聚共識?》(Moral Tribes: Emotion, Reason, and the Gap Between Us and Them),書中也指出,我們的大腦像是雙模式相機,配有自動模式及手動模式。自動模式指的是我們的道德情感機制,大腦從演化、文化及個人經驗形塑出我們的情感系統,讓我們得以用直覺自動並有效地解決日常事務;思考能力則如同大腦的手動模式,透過理性的運作,我們的想法也更多元、更具彈性。

-----廣告,請繼續往下閱讀-----

《道德部落》 指出,成為社會動物需要自動運作的情感機制,以自我融入社群中,但同樣的情感機制,也將我們變成部落動物,促使我們(Us)對抗非我族類(Them)。我族與他族之間,往往存在相異的價值隔閡,「我們是對的,你們是錯的」,此一信念深植所有人心中,促使我們在面對各種政治議題時,習於對抗非我族類,有時使用語言,有時用肢體暴力,極端份子甚至是用槍炮炸彈,必定要攻擊對方,至死方休。

台灣人對這點應該非常熟悉,泛藍也好,泛綠也好,藍綠的鄉民都只看到和放大對方缺點,對自己人的過失當作不存在,言語甚至肢體霸凌是家當便飯。不是因為台灣人素質低,是因為我們身為人而演化來的情感機制在放肆!

格林在《道德部落》中用東西南北四個部落來作比喻,最常提到的北方和南方部落,就像美國的自由派和保守派。我們大腦的設計,能幫助我們適應部落群體生活,和同我族類合作相處,並對抗非我族類。但現代資訊社會將世界上不同群體全塞進一個共同的空間,尤其是在網路上,這樣前所未有的契機,激化了各群體的價值衝突。

我們人類上百萬年間,絕大部分人天天見到的都是自己認識的人,除了少數宅到爆的人,我們一般上天天都會碰見陌生人,文明社會能夠讓陌生人間不發生衝突甚至協作,仰賴的是許多法律和制度的建立,可是法律和制度要如何讓大部分人滿意呢?當世界愈來愈小,區分不同群體的道德分野愈來愈突出,我們就愈來愈容易困惑。從抗議租稅法規、墮胎、同志婚姻到全球暖化,不同文化背景形成了不同的道德常識。面對不同的道德常識標準,能不能找到所謂的共識?

-----廣告,請繼續往下閱讀-----

格林帶領我們追溯道德的起源,並探索了現代社會價值衝突的現況,他指出我和我群的關係而建立的道德直覺,已經不適合現今的複雜的社會狀況了,當我群和他群同時存在,面對複雜多元的現代社會,並且要共享分配資源時,他主張我們需要手動模式的理性操作,才能超越部落情感, 以設立實用的思考路徑,建立一個適用於全球的道德方案,幫助我們解決分歧問題。

既然我們要放下道德直覺而進入手動模式,那我們應該要如何面對、處理道德爭議呢?格林認為,實效主義(Utilitarianism)是個好方法,因為實效主義的思維模式,就是經過最理性的算計的。

格林,在《道德部落》中,極力為實效主義辯護,實效主義(Utilitarianism),在《好人總是自以為是》中譯作效益論,在別的書中,有時候譯作功利主義。提倡追求「最大幸福」(Maximum Happiness),認為實用即至善的理論,相信決定行為適當與否的標準在於其結果的實用程度。在哈佛政治哲學家桑德爾(Michael Sandel)著名的「正義」課中,他用電車問題來讓學生討論,其中一個是電車剎車失靈,要撞上鐵軌上的五個不知情的工人,另一邊的鐵軌只有一個工人,如果變換軌道犧牲一人來保住五條人命,大家能接受嗎?如果是從天橋上推一胖子下去呢?

實效主義最令人感冒的是功利的算計,而且在看「正義」課程,或讀《正義:一場思辨之旅》(Justice: What’s the Right Thing to Do)時,會有種實效主義被桑德爾駁到的感覺,因為桑德爾舉例說,如果羅馬時代,大家都認為把基督徒丟到競技場去餵獅子老虎會感到快樂,那樣就算道德了嗎?(請參見〈一場思辨之旅的正義〉

-----廣告,請繼續往下閱讀-----

實效主義不僅被那樣批評,《好人總是自以為是》還指出,效益論(就是實效主義)的鼻祖美國哲學家邊沁(Jeremy Bentham,1748-1832)是個亞斯伯格症患者,而開創義務論的德國哲學家康德(Immanuel Kant,1724-1804)終生恪守書齋,海德特認為效益論和義務論都是單一受體型的道德觀,如果把道德比喻作味覺的話。

《好人總是自以為是》的原文出版在《道德部落》之前,後者書中有討論到《好人總是自以為是》,只是在後者中照原文書文直譯作《正義之心》。格林和海德特也曾共同撰寫過一篇評論論文(Greene J, Haidt J. Trends Cogn Sci. 2002 Dec 1;6(12):517-523.)。然而,《道德部落》卻認為實效主義是一種深度的實用主義!格林認為,實效主義其實是被長期誤解和汙名化。例如有人推論出實效主義者會支持奴隸制度,因為奴隸制的益效最大。可是格林指出,會那樣想是完全誤解實效主義,以為財富就等同快樂!可是奴隸制實際上雖然能為主人累積財富,但卻製造出更多不快樂的人,所以這個攻擊是無的放矢!

《道德部落》並非要我們成為一個完全的實效主義者,而是建議我們何時該相信我們的直覺,何時又該理性思考,而什麼樣的思考又能讓我們跨越分歧,向共識邁進。他提出六大原則,首先,在個人生活中,該信任道德直覺,可是在面對我群和他群的道德爭議時,應切換到手動模式!再來,權利不是用來論證的,而是用來結束論證的,當我們達到道德進步時,權利能作為盾牌來保護,但我們永遠不知道哪一項權利比另一項優勢。

接著,格林主張,我們我們該把焦點放在事實上,並要求別人也這麼作!有些政策並沒有必要急著爭論成效,因為連最基本的事實都還沒有。共和黨在九月中的初選辯論,在美國知識份子界引起了軒然大波,因為那些競爭總統候選人寶座的共和黨人,在台上無視事實而畫唬爛的地步,已經是到了幾乎全都是黑白講、練肖話的地步,彷彿他們來自另一個星球!

-----廣告,請繼續往下閱讀-----

《道德部落》和《好人總是自以為是》兩本好書作者,雖然極力探討道德上如何分解分歧和尋求共識,可是在書中都不諱言他們極不認同共和黨,格林大剌剌地表示他是自由派,而海德特雖然認為自己從自由派往中間靠了,也理解了一些保守派的想法,但是仍強調他反對共和黨!再怎麼想在道德上如何分解分歧和尋求共識,都不能容忍邪惡吧?台灣或馬來西亞選出了一個爛人當國家元首,搞砸的是一個國家,可是美國選出了爛人,搞砸的可是全世界啊!

原則四是要當心有偏私的公平,因為我們會有意無意地選擇對自己有利的方式然後宣稱其公平。原則五是運用共通貨幣,簡單來說就是用科學的知識,來尋找最客觀的方案。最後,他提議我們在有餘力的情況下,也要試圖改善他人的生活!

雖然《道德部落》和《好人總是自以為是》的評論差不多,但我個人覺得《道德部落》讀起來的趣味性稍遜《好人總是自以為是》。可是《道德部落》在第十一章花了近半章來討論《好人總是自以為是》,卻讓我拍案叫好!前述提到格林是自由派,他認為海德特主張自由派和保守派該互相理解,但他在關於理性、手動模式在道德心理學上扮演的角色,和海德特的見解相異。他認為即使對手不邪惡,也不見得他們的主張是正確的!他不認同海德特主張自由派道德味覺狹隘,就是不認為自由派在道德上有缺陷。

從《道德部落》中可知,保守派反而才是心胸狹隘的一群人,成天只顧及自己的利益和部落歸屬,無法接受多元的觀點。也就是說,與其說保守派道德味覺較廣,還不如說他們完全接受自己部落的公平、忠誠、權威和神聖,可是不管他群的死活!可是自由派的道德味覺不僅沒有損壞,反而是更精細地包容多元,完全認同我群而排斥他群的保守派,只會在複雜的世界中造成更大的衝突和對立,並無法促成更大的善!我認為,保守派充其量只能達到最大的偽善!

-----廣告,請繼續往下閱讀-----

他也反對自由意志主義,指出深度的實用主義者不會是自由意志主義者,因為他不相信真正的公平是存在的,有些人包括他自己,還有我自己,出生時就因為家庭背景比一些人佔了些優勢!如果不是我父母那麼勤快能幹,我不會有機會在高等教育上比別人更有優勢,所以我也不相信該完全放任,因為有時候跑得比較遠,不是因為跑得比較快,是因為出發點出別人遠!因為怎麼能把一個人的財富多寡完全歸因成是個人的努力而一點一滴都不該捨予?

《道德部落》和《好人總是自以為是》是這個混亂的時代的兩盞明燈!值得所有關心公民議題的朋友花心思好好閱讀思考,咀嚼其中博大精深的細緻精髓!

本文原刊登於閱讀‧最前線【GENE思書軒】,並同步刊登於The Sky of Gene

文章難易度
Gene Ng_96
295 篇文章 ・ 30 位粉絲
來自馬來西亞,畢業於台灣國立清華大學生命科學系學士暨碩士班,以及美國加州大學戴維斯分校(University of California at Davis)遺傳學博士班,從事果蠅演化遺傳學研究。曾於台灣中央研究院生物多樣性研究中心擔任博士後研究員,現任教於國立清華大學分子與細胞生物學研究所,從事鳥類的演化遺傳學、基因體學及演化發育生物學研究。過去曾長期擔任中文科學新聞網站「科景」(Sciscape.org)總編輯,現任台大科教中心CASE特約寫手Readmoo部落格【GENE思書軒】關鍵評論網專欄作家;個人部落格:The Sky of Gene;臉書粉絲頁:GENE思書齋

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

-----廣告,請繼續往下閱讀-----

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
文章難易度

討論功能關閉中。

賴昭正_96
43 篇文章 ・ 56 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

0

1
0

文字

分享

0
1
0
為期刊拍張封面 顯微鏡下的科學魔法
顯微觀點_96
・2024/05/27 ・3010字 ・閱讀時間約 6 分鐘

本文轉載自顯微觀點

希爾思使用VS120拍攝,小鼠大腦矢狀切口上的染色圖像。圖片來源:EVIDENT|Olympus官網

「我開始拍攝美麗的影像是出於興趣,因為我喜歡神經科學圖像藝術性的一面。」

史蒂芬妮.希爾思(Stephanie Shiers)是美國德州達拉斯大學的認知神經科學家,她拍攝的顯微鏡影像曾被選作多本期刊的封面,包括《神經科學雜誌》 (The Journal of Neuroscience)、《科學轉化醫學》 (Science Translational Medicine)等。要怎麼做才能讓自己拍攝的作品登上期刊封面呢?

希爾思在 2019 年取得認知和神經科學博士學位,目前從事疼痛研究,以移植捐贈者的神經組織探索慢性疼痛的臨床前機制和治療方法。

最驕傲的時刻——影像獲選期刊封面

希爾思攻讀博士期間,當第一篇論文獲得刊登且拍攝的照片一同被選為封面發表時,是她最引以為傲的時刻。她表示,第一篇論文被發表本身已經很令人興奮,當時並未預期會獲選封面,「因為我只是基於我對神經科學藝術的熱愛,而拍攝漂亮的圖片」。

-----廣告,請繼續往下閱讀-----

事實上,論文中所有影像都使用 40 倍物鏡拍攝,但她後來決定使用 100 倍物鏡拍攝,以捕捉一些漂亮的影像,加以觀察。

「我能看到所有的樹突和軸突初始段,這看起來令人震撼!」當希爾思與她的指導教授分享時,教授鼓勵她投稿期刊封面,同時提交論文。

希爾思表示,在攻讀博士學位時,面對周遭的同行都非常專業,自己曾感到無所適從。然而,當成功的數據和封面影像出現時,過去辛勤的工作和壓力都值得了。

歷經徬徨 受科學魔法吸引踏上研究路

對於自己選擇踏入神經科學研究,並繼續攻讀博士、成為科學家,希爾思坦承自己也曾經歷徬徨。「因為不知道自己想做什麼」,希爾思大學時曾選了三個主修、一個副修。

-----廣告,請繼續往下閱讀-----

原想攻讀醫學院的希爾思,在接受緊急救護技術(EMT)訓練時,意識到自己不想當醫師。因此她又選了神經科學和歷史專業,因為她自認可能喜歡人文學科、可能想成為律師。

直到完成學士學位後希爾思仍不清楚自己的職涯方向。但當她加入校內實驗室時,發現自己「真的很喜歡」,進而申請進入加州大學戴維斯分校的 NeuroMab 研究機構(UC Davis/NIH NeuroMab facility),從事免疫組織化學的工作。

在這份工作中,希爾思研究進行免疫組織化學染色、抗體驗證,在顯微鏡下觀察「肉眼」看不見的東西。這時她意識到「科學是最我們所擁有,最接近魔法的東西」,也因此確認了職業道路——走上學術研究之路。

而現在對希爾思來說,最難忘的時刻莫過於帶領在實驗室掙扎的學生領略科學的奇妙。

-----廣告,請繼續往下閱讀-----

曾經有一名學生未受太多訓練,因此希爾思帶著她完成染色工作、教她操作共軛焦顯微鏡;而當學生第一次看到顯微鏡下的影像時,露出驚訝的表情。 「看到別人也能體驗到科學的神奇,真是太好了!」希爾思這麼說道。

Science Trans 1
圖片來源:擷自《Science Translational Medicine vol. 13, issue 595》封面

超敏通道

圖像顯示小鼠背根神經節表現瞬態受體蛋白 5 (TRPC5,紅色)編碼瞬時受體電位規範 5(TRPC5,紅色)、抑鈣基因相關胜肽(CGRP,綠色)、P2X3 受體(藍色)和神經絲蛋白 200(青色)的基因。

希爾思為〈Transient Receptor Potential Canonical 5 Mediates Inflammatory Mechanical and Spontaneous Pain in Mice.〉的共同作者。

本篇論文主要探討,多種原因引起疼痛超敏反應,其中 TRPC5 的活化增加了囓齒動物對疼痛的敏感性,而 TRPC5 通道也在人類感覺神經元中表現,因此研究認為 TRPC5 抑制劑可能可有效減輕患者的疼痛超敏反應。

拍科學藝術照 封面也可以很抽象

對於如何拍出「封面等級」的科學藝術照,希爾思也給出幾點建議。首先,她強調擁有適合的儀器至關重要,以降低信噪比和提升影像品質。

此外,研究者必須接受更多基礎訓練。她表示,過去自己雖操作過很多次顯微鏡,但主要使用明視野照明觀察。直到開始博士課程後學習神經解剖學、蛋白質定位等知識,使用免疫螢光染色最適當的卻是使用暗視野照明。因此持續接受培訓,了解如何正確使用顯微鏡也是非常重要的。

希爾思也建議,在實驗數據收集階段,就可預先規劃影像拍攝;一邊構思論文中需要使用的圖像和材料,如果材料和研究內容一致,就當場拍攝解析度更高的影像。

-----廣告,請繼續往下閱讀-----

她也鼓勵研究者不斷嘗試新事物,例如使用不同染劑(明視野病理染色劑、鈣染色劑等)與顯微鏡搭配,將更容易拍攝出引人注目的影像。

希爾思鼓勵研究者盡可能地投稿封面影像,並強調封面不必與數據收集所用的影像完全相同;甚至許多期刊封面的圖片可以是抽象的、不一定要和照片一樣真實。

物種特異性表達

以原位雜合技術(in situ hybridization,左)和空間轉錄(Spatial Transcriptomics,右)並置的人類背根神經節,用於描述感覺神經元轉錄譜的特徵。

痛覺受器是專門的感覺神經元,存在於背根神經節(DRG)和三叉神經節中,對生成最終疼痛感知的神經元信號至關重要。

希爾思為〈Spatial transcriptomics of dorsal root ganglia identifies molecular signatures of human nociceptors.〉的第二作者。

本篇研究試圖為人類疼痛受器生成等效訊息,利用空間轉錄數據識別痛覺受器的轉錄組特徵,並藉以識別物種間差異和潛在的藥物靶點。

Sciencetrans2022 1
圖片來源:擷自《Science Translational Medicine (vol. 14, issue 632》封面 
Jneurosci 3
圖片來源:擷自《The Journal of Neuroscience vol. 38, issue 33》封面

圖像為患有神經性疼痛的小鼠內側前額皮質神經元,紅色為 PV 陽性細胞小白蛋白陽性中間神經元(紅色)與軸突初始段標記(Ankyrin-G,綠色)和核標記(DAPI,藍色)的共同標記。

希爾思為〈Neuropathic Pain Creates an Enduring Prefrontal Cortex Dysfunction Corrected by the Type II Diabetic Drug Metformin But Not by Gabapentin〉的第一作者。

認知障礙是神經性疼痛的共病。本篇研究使用原治療糖尿病的藥物二甲雙胍,治療神經疼痛 7 天後出現逆轉,包括功能和解剖學出現變化,顯示該藥物或可老藥新用於治療神經性疼痛及其認知合併症。

參考資料

  1. https://www.olympus-lifescience.com/en/discovery/behind-the-lens-dr-stephanie-shiers-creates-cover-worthy-neuroscience-art/
  2. Sadler, Katelyn E et al. “Transient receptor potential canonical 5 mediates inflammatory mechanical and spontaneous pain in mice.” Science translational medicine vol. 13,595 (2021).
  3. Tavares-Ferreira, Diana et al. “Spatial transcriptomics of dorsal root ganglia identifies molecular signatures of human nociceptors.” Science translational medicine vol. 14,632 (2022).
  4. Shiers, Stephanie et al. “Neuropathic Pain Creates an Enduring Prefrontal Cortex Dysfunction Corrected by the Type II Diabetic Drug Metformin But Not by Gabapentin.” The Journal of neuroscience : the official journal of the Society for Neuroscience vol. 38,33 (2018).

查看原始文章

討論功能關閉中。

顯微觀點_96
10 篇文章 ・ 3 位粉絲
從細微的事物出發,關注微觀世界的一切,對肉眼所不能見的事物充滿好奇,發掘蘊藏在微觀影像之下的故事。

2

1
1

文字

分享

2
1
1
讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員
研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

-----廣告,請繼續往下閱讀-----

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

所有討論 2
研之有物│中央研究院_96
296 篇文章 ・ 3568 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook