1

1
1

文字

分享

1
1
1

AI 當法官,會是正義女神的化身嗎?專訪李建良

研之有物│中央研究院_96
・2020/09/19 ・5642字 ・閱讀時間約 11 分鐘 ・SR值 587 ・九年級

本文轉載自中央研究院研之有物,泛科學為宣傳推廣執行單位

  • 採訪編輯|劉芝吟
    美術編輯|林洵安

AI 進入法律領域,該踩剎車嗎?

Alpha Go 打敗人類棋王,自駕車躍躍欲試,人工智慧不僅改變世界運作的規則,也逐漸從科技跨入人文社會領域。讓 AI 坐上審判席,會是追求正義的新解方嗎?AI 法官是鐵面無私的包青天,或者科技暴走的新危機?

「研之有物」專訪中研院法律學研究所特聘研究員李建良,從法學視角提供思辨觀點,我們不只應審視 AI 的技術能力,也必須嚴肅面對規範性界線。

人工智慧變身法律小幫手

十幾年前,電腦會揀土豆已經夠驚奇,現在的 AI 更是大進擊,能辨識人臉、駕駛汽車,根據 2019 年眾多媒體報導,歐洲愛沙尼亞甚至即將推行「AI 法官」!法律事務涉及事實認定、法條解釋與價值規範等多重問題,人工智慧果真已如此高「智慧」,有能力涉入複雜的法律領域?

前兩波人工智慧(AI)希望電腦能像人一樣思考,但皆失敗。2010 年至今的 AI 熱潮由「 機器學習」領銜,簡單來說就是我們提供大量資料,讓電腦自己找出事件之間的關聯規則,學會判斷,在許多領域都已比人類預測得更精準。資料來源│〈人工智慧在台灣〉演講,陳昇瑋

中研院李建良特聘研究員說:「將 AI 應用到法律訴訟其實並非未來式,而是行之有年的現在式。」

在美國,近年法院已廣泛運用「COMPAS」系統,這是一套由商業公司開發的 AI ,幫助法官評估被告的再犯風險,作為量刑的準據。COMPAS 會進行大量問答調查,依據被告回答、年齡、過往犯罪紀錄與類型等各項資料,推估被告的再犯率,給出 1-10 的危險指數,最後由法官決定被告服刑的長短。

有研究指出,AI 判定為高風險者,63% 在交保期間犯罪,其中 5% 犯下性侵或謀殺。做為法官小幫手,AI 似乎確實能發揮一定程度的「鷹眼」,預測危險性。

國內也逐步嘗試將 AI 運用在量刑與家事判決預測。司法院建立「量刑趨勢建議系統」,以自然語言分析判決書,提供法官、律師量刑參考。清華大學研究團隊則開發出「AI人工智慧協助家事判決預測系統」,讓 AI 從判例「學會」法官的判決模式,預測撫養權花落誰家。圖片來源│ 取自量刑趨勢建議系統網頁
國內也逐步嘗試將 AI 運用在量刑與家事判決預測。司法院建立的「量刑趨勢建議系統」,以自然語言分析判決書,提供類似案件的量刑參考。清華大學研究團隊則開發出「AI 人工智慧協助家事判決預測系統」,讓 AI 從判例「學會」法官的判決模式,預測撫養權花落誰家。
圖片來源│ 取自量刑趨勢建議系統網頁

法官不是人?!別急,再等等

從現況來看,人工智慧確實已進入國家司法系統,但目前仍作為「專家團隊」扮演輔助角色,由法官做裁決。那麼下一步, AI 有可能獨當一面坐上審判席嗎?

愛沙尼亞的 AI 法官計畫,似乎就朝著這個方向前進。

根據報導,AI 法官將處理小額民事訴訟案件(少於 7000 歐元,台幣約 24 萬),由原告方輸入訴訟對象、金額、提告理由等。AI 系統能從過往大量判例學習,解析法條做出判決。換句話說,隔壁鄰居摔壞你的 iPhone,你一狀告到法院,會由 AI 判定誰勝訴,鄰居該賠你一台手機或折價金額。對結果不服?可以上訴,將有人類法官審理。這項超級計畫如果成真,「法官不是人」恐怕就要從罵人話變為描述句了!

不過,李建良特別澄清:「媒體報導後,我們研究團隊成員曾請教愛沙尼亞法界人士,目前所知這是數位政府計畫的一部分,但應該還只停在『計畫』階段。」

他強調,若要把國家審判權完全交給 AI ,必定需要法源基礎,明確建立一套法規方案。由於目前愛沙尼亞並沒有出現相關法規,這個突破仍是「只聞樓梯響」。

AI 法官的技術邊界:它能做出好判決嗎?

儘管 AI 尚未披上法官袍,但愛沙尼亞構想彷彿是驚天一雷,預示出可能的未來圖像。許多人或許有同樣的好奇:AI 當法官究竟行不行?

李建良分成不同層次來討論:

行不行有兩層涵義:能力上行不行,規範上可不可以。

第一層次是「可能性」問題:AI 法官足以擔任人類法官的角色嗎?更直白地問:AI 真有那麼厲害,能夠做出好判決?

要確認 AI 的能力,首先我們得問:什麼是好判決?

「這牽涉社會對法院判決的評斷標準。」李建良分析,一種標準是檢視「判決結果」;另一種則是審視「判決理由」,法官在判決書詳述的心證,如調查結果、採信哪些證據、證據效力、法條依據等。

若觀察近年台灣社會的現象,大眾似乎較關注判決結果。好比引發社會矚目的「台鐵殺警案」,這樁尚未確定的爭議案件,引發了司法當局對司法鑑定制度的重視與檢討,而輿論譁然多半是殺人無罪的結論,批評法官「不接地氣」,關於心證過程的討論相對較少些。

換言之,假如重視結果,那不難想像 AI 法官有能力透過歸納、類比分析對案件做出判決。但若我們在乎法官為什麼、如何做出裁決,依照目前技術和愛沙尼亞計畫,AI 所產出的可能只有答案,但沒有理由(或較簡式的理由)。

這形成了第一重挑戰:

若 AI 法官無法清楚說明理由,我們如何檢視它的判決好不好?有沒有瑕疵?

有些人也質疑,AI 的精準、一致可能反倒是弱點。現行 AI 不具有真正理解他人的能力,無法實際參與答辯交鋒和開庭審理,而許多訊息來自臨場、個別案例的判讀,並非用數據化與資料化就足夠解釋,背後涉及文化、風俗、情境常識,相當複雜。

目前的人工智慧仍屬於「弱 AI」,沒有意識、思考能力,只是透過巨量資料與機器學習歸納出已知和未知之間的關聯。哲學家 John Searle 曾用「中文房」譬喻提出挑戰:如果 AI 並不了解真正意涵,就算它能和人一樣做出正確回應,似乎也不代表它就有獨立的心靈意識。
圖說設計│ 劉芝吟、林洵安

不過,AI 派並沒有全輸!

首先,技術可能超前突破,讓 AI 未來也有能力寫判決書、說明論證。另外若拿現行制度相比,美國陪審制同樣只宣告:「陪審團認為無罪」,不會附上理由。更何況所謂的情境判斷,經常也會造成主觀性偏誤,《美國國家科學院院刊》(PNAS)研究發現,接近午餐時間法官對假釋認定較嚴格,用餐休息後,假釋審查就變寬鬆了!

想要假釋,還得祈禱法官吃飽飽?恐怕多數人難以接受。

鐵面無私包青天? 小心 AI 的內建歧視

總地來說,理性、客觀幾乎是 AI 的最大光環,以準確一致的邏輯做判斷,不受法官個人情緒與好惡影響。

但真是這樣嗎?許多研究證實:AI 默默戴上了有色眼鏡! COMPAS 系統被抨擊帶有種族歧視,有色人種更容易被預測為高再犯率;亞馬遜招聘、蘋果信用卡信貸系統都曾被發現隱含性別差別待遇。

「這就如同人類一路走來看到的歷史不平等。」Amazon 資訊科學家說。

AI 系統在資料學習的過程,複製了人類長年累積的性別、種族、階級偏見。即便這些偏見已長久存在,但 AI 可能更強化不平等,因為人們會在毫無所覺下,信任科技工具的「客觀」訊息,對陌生人打分數。

然而,科技支持派沒有全盤放棄。AI 歧視是學來的,因應之策是在資料訓練時降低這些「標籤」,並且提供多樣性的資料。此外,比起人類刻意包裝、掩飾偏見,AI 反而有機會讓偏誤被「顯題化」,讓我們更加警覺,並進行修正。

綜合而論,若單從技術可能性評估,目前的 AI 也許不夠「聰明」,但是只要科技持續追求突破、進展,似乎沒有理由全盤否定 AI 法官可行性。畢竟,人類同樣也會犯錯、誤判、有偏見。

「從能力來看,AI 確實可以幫助人類、補位弱點,很值得期待未來發展。」李建良持平分析:「但國家是否應該開放制度,更重要的仍在第二層次的考量。」

AI 法官需要明確法源基礎

他點出更關鍵的第二層議題:從規範角度來看,讓 AI 當法官可不可以?

簡單來說,即使人工智慧有能力獨立分析、判決,我們應該把審判大權交給 AI 嗎 ?是否可能衍生倫理問題?

「第一個遇到的是:需不需要修憲?這是多數人忽略的框架。」專研憲法、行政法的李建良特別指出。法官的身分保障及審判獨立的要求是直接寫在憲法上頭的,但憲法規定的法官是不是專指「人」呢?法學界可能有不同論述。

如果憲法說的法官專指「人」,也就是法官審判權奠基在人的前提,勢必需要修憲。反之,就算憲法允許「非人」擔任法官,仍然需要修法 ── 如同剛拍板的《國民法官法》,國家同樣必須建立一套法制來規範非人法官。例如,適用民事或刑事案件?能上訴嗎?上訴後交給另一位 AI 法官(AI 會有不同法官嗎?),或者由人類法官打掉重來?

價值選擇的難題:科技優勢 VS 法律原則

法源基礎僅是第一步,對整個社會而言,AI 法官挑戰的是價值選擇的難題。

2013 年,美國威斯康辛州法院參酌 COMPAS 風險指標,判處被告 Eric Loomis 6 年徒刑。Loomis 不服而上訴最高法院,認為法庭以 AI 系統裁決是一種「秘密審判」!要求說明 COMPAS 系統如何演算判斷出危險值。

這個案例顯然暴露了 AI 法官的價值衝突:演算法黑箱(black box)。

「在民主法治國家,法官不是個人,他代表的是國家。審判必須在公開透明的運作下,被監督、檢驗、究責。」李建良說:「法院公開審理、法官說明判決理由,都是來自這種被檢驗的要求。」

倘若披上法官袍的 AI ,無法開庭、詰問、說明判決理由,讓審判攤在陽光下,勢必挑戰現行的法院體制,也可能稀釋透明、公開、負責的司法價值。我們無從知道它為何會做出 A 判決,而不是 B 判決,不能確定它有沒有失誤,也難以確認責任歸屬。

Loomis 案也突顯出另一挑戰:代罪羔羊! AI 推測來自過往的資料,但「相似條件的其它人這麼做,不代表個別主體也會這麼做」。

這同時讓人擔憂 AI 的「因襲性」:社會信仰的美好價值是不斷翻轉、改變,有時正是因為劃時代的法院判決,才讓我們終於能破除傳統、確立新價值,例如美國法院推翻種族隔離平等制度,AI 法官會不會弱化、壓縮了法律肩負的深刻意義?

李建良直言,第一層次的「能力可行性」是人與 AI 的 比較參照,AI 能做到什麼,補足哪些人類弱點,帶來什麼優勢。

但最終,「倫理辯證」仍是無可迴避的關鍵核心,當新科技打破、牴觸基本價值,我們是否願意為了科技可能提供的「客觀公正」,放棄退讓這些原則?

我們願意授權給一套科技系統,讓它判定人們是否有罪,剝奪我們的人身自由(甚至生命)嗎?李建良認為,AI 法官的倫理爭議勢必挑戰人類的信任邊界,最終將深刻探問人類對科技制度的核心信念。圖片來源│ iStock
我們願意授權給一套科技系統,讓它判定人們是否有罪,剝奪我們的人身自由(甚至生命)嗎?李建良認為,AI 法官的倫理爭議勢必挑戰人類的信任邊界,最終將深刻探問人類對科技制度的核心信念。
圖片來源│ iStock

人文關懷,也是艱困的價值論辯

「這不會是全面贊成/反對的選擇題,因為 AI 法官很難普遍性適用每一種案件。」李建良強調。

AI 在資料統整、數據分析上已大放異彩,導入科技新工具、人機合作,可以減輕法院負擔,也拉近一般人與訴訟裁決的距離。然而,法律範疇高度複雜,即便未來開放 AI 法官,也必定是在特定的條件、脈絡與案型。

他以行政法說明,「大埔農地要不要徵收?美麗灣渡假村能不能蓋?這類行政法案件極度複雜,牽涉環保、制度、法規多重衝突,還有價值選擇的命題,不太可能由 AI 獨立裁決。」

更重要的是,即使技術邊界有機會突破、修正,讓 AI 越來越聰明,我們也不應迴避第二層次的倫理辯證。這也正是人文學科最重要的價值關懷。

「我們很容易倒過來想,認為有這麼多好處,為什麼不開放、不使用?但人文學者關注的是價值倫理,一旦越過了某些界線,無論多少優勢,我們都必須謹慎、嚴肅地看待。」李建良提出艱難考驗做類比:

當你明確知道這人是兇手,卻沒有任何證據,這時我們要不要放棄無罪推定,不計手段堅持罪有應得?這就是價值選擇的論辯。很困難,但很重要!

「人文學者的使命,是預先關切各種可能的問題。」面對 AI 大躍進,李建良集結法政、社會、哲學學者展開長期跨領域計畫,關切 AI 應用的人文思辨。他這麼說:「客觀來看,目前的 AI 技術還無法高度涉入法律系統,但當我們做更多思考對話,才能讓社會更清楚彼此的價值、信念與方向。」
攝影│林洵安

延伸閱讀

本文轉載自中央研究院研之有物,原文為AI 當法官,會是正義女神的化身嗎?專訪李建良,泛科學為宣傳推廣執行單位

文章難易度
所有討論 1
研之有物│中央研究院_96
288 篇文章 ・ 2916 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

4
1

文字

分享

0
4
1
ChatGPT 還是 AI 之王嗎?Google Bard AI 與微軟 Bing AI 的終極測試
泛科學院_96
・2023/08/12 ・537字 ・閱讀時間約 1 分鐘

今天這集影片我們準備拿 ChatGPT、Google Bard AI 跟微軟的 Bing AI 來作一個大亂鬥比賽,我們準備了幾個不同的挑戰看誰最厲害。

因為 Bard 跟 Bing 都是免費提供,為了公平性,我主要會使用免費的 GPT 3.5 來比較,不過我同時會放上 GPT-4 開啟網路瀏覽功能的結果來給各位作參考。

評比的成果我會給一顆星到五顆星來呈現,主要分為四個類別:易用性、實用性、創造性以及回應速度。

看完今天的影片,你會想要使用Bing、Bard還是Chatgpt呢?歡迎在影片下方留下你的看法

如果這支影片對你有幫助的話,請幫我在影片下方點個喜歡,並且把這支影片分享給需要的朋友,最後別忘了訂閱泛科學院的頻道,我們下支影片再見囉。

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

泛科學院_96
5 篇文章 ・ 7 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

1

3
0

文字

分享

1
3
0
誰在傳送假訊息?提升全民媒體素養,讓謠言止於智者!
研之有物│中央研究院_96
・2023/06/09 ・4698字 ・閱讀時間約 9 分鐘

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|莊崇暉、田偲妤
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

不要再轉傳假訊息了!


「我家親戚群組又在 LINE 傳假訊息了!」這是常在年輕族群中聽到的抱怨,彷彿隨意散播謠言是長輩特有的行為,當你願意了解長輩的數位社交生活,將發現事實並非如此。中央研究院「研之有物」專訪院內民族學研究所李梅君助研究員,在研究 Cofacts 事實查核協作計畫時發現,臺灣民眾對公共議題的關注存在世代衝突,該衝突延伸至日常相處上,卻在事實查核的協作過程中看到正向溝通的曙光。究竟臺灣長輩發展出什麼樣的數位社交生活?如何應用第三方資訊與長輩溝通,甚至邀請長輩加入闢謠打怪行列?

圖/研之有物。

2018 年臺灣地方選舉和公民投票讓存在已久的世代衝突瞬間引爆,面對韓流現象、同性婚姻、性平教育等議題,厭世代年輕人(1990 年代左右出生)和戰後嬰兒潮世代長輩(約 1946-1964 年出生)因經濟與社會生長背景的不同,常發生意見分歧而爭吵不休的情形。

在臺灣最多人使用的 LINE 即時通訊軟體中,出現不實謠言滿天飛的亂象,年輕人紛紛將矛頭指向長輩,批評長輩不先查核資訊真假就亂發文。

中研院民族所李梅君助研究員在研究 Cofacts 事實查核協作計畫時,發覺臺灣世代衝突問題的嚴重性。年輕人認定長輩就是假訊息的傳遞者,但事實上,許多年輕人也常在無意間互傳不實謠言。

「大眾常急著為長輩貼標籤,卻從來不去了解他們怎麼使用數位工具。這樣並無助於解決問題,只會加深彼此的誤會。」研究過程中逐一浮現的問題為李梅君指引出一條研究道路,從事實查核協作行動出發,逐步深入長輩的數位社交生活,探索緩解世代衝突、提升全民媒體素養的可能途徑。

「早安圖」的背後:長輩獨特的數位社交

圖/研之有物(圖片來源/Unsplash

從了解長輩的數位社交生活做起,應有助於促進不同世代的相互理解,李梅君選擇由長輩們發展出的「早安圖」文化來切入研究。

科技與生活的緊密結合讓人手一機成為常態,再加上疫情造成的人群接觸減少,讓人們日漸習慣將社交重心從實體轉往線上。越來越多長輩靠 LINE 群組維繫親友感情、接收外界資訊,每天一早發布的「早安圖」經常是長輩社交生活的起頭。

然而,早安圖一直有被汙名化的傾向,溫馨圖片配上吉祥文字的簡單排版被貼上具有長輩風格的標籤,甚至還被戲稱為「長輩圖」。李梅君與長輩相處後發現,早安圖的存在對於長輩的社交生活具有深刻意義。

首先,早安圖是長輩證明自己跟的上年輕人腳步的重要象徵!身為晚近才接觸手機、電腦的「數位移民」,長輩常因不會操作數位工具、又害怕晚輩覺得自己笨拙,而感到焦躁不安。因此,當自己好不容易學會用手機拍照、修圖、發早安圖,對長輩來說是自信心的累積,代表自己沒被時代淘汰

此外,早安圖也是長輩與人互動的敲門磚。李梅君察覺,有些長輩在傳訊息時相當在意社交分寸,不像年輕人想到什麼就 LINE 一下朋友,反而擔心隨意發文會被當成不懂規矩的「老人」。因此,當與新朋友開啟話題時,他們會先禮貌性地試探,這時無害的早安圖就是最好的敲門磚,可以從對方回傳的字句、貼圖或已讀不回,判斷能否進一步交談。

如果我們願意深入體會早安圖對長輩的意義,你將發現早安圖是長輩表達「關懷」的重要媒介。

例如在不方便見面的疫情期間,許多長輩會互相分享充滿溫馨祝福的早安圖、早安短影片,當中包含一些身體保健資訊,即時表達對遠方親友的關心,也讓對方知道自己過的很好。

但是,伴隨著早安圖的問候,群組裡轉傳的文字與圖像影片卻可能含有具爭議性的農場內容,例如每天喝檸檬水可以防疫、常喝地瓜葉牛奶可以防癌等,讓以關懷為出發點的長輩成為散播謠言的代罪羔羊。為此,有越來越多公民團體開始號召民眾一起打擊假訊息,李梅君研究的 Cofacts 就是其中一個針對 LINE 假訊息亂象所發展的計畫。

聽到外面的聲音:「事實查核協作社群」打開群組封閉的大門

LINE 聊天室裡所有的對話都經過加密,就算檢舉了某用戶的言論,LINE 官方也難以遏阻資訊傳播。
圖/Unsplash

LINE 假訊息亂象一直是假新聞議題中非常難處理的一塊,因為 LINE 不像 Facebook、Twitter 或 Instagram 有審查下架機制,LINE 聊天室裡所有的對話都經過加密,就算檢舉了某用戶的言論,LINE 官方也難以遏阻資訊傳播。

李梅君提到:「雖然 LINE 群組相當封閉,在臺灣卻已具有極大的公共性。」很多群組都涉及公共議題的討論,並累積千百人以上的成員,一旦有人惡意散播不實謠言,在缺乏查核機制的情況下,後果可能不堪設想。

因此,自 2016 年起,公民科技社群 g0v 臺灣零時政府的成員推出「Cofacts 真的假的 – 訊息回報機器人與查證協作社群」,邀請民眾主動回報在 LINE 上發現的可疑訊息,再由來自各領域的編輯志工進行事實查核,撰寫有助判斷訊息真假的回應。之後只要有民眾發出相似問題,機器人便會從資料庫中找出相關回應供民眾參考。收到回應的民眾如有不同看法,也可以補充新的回應。

在 Cofacts 群組回報 18 歲公民可以選市長的可疑訊息,獲得豐富的澄清回應與參考資料,使用者也可補充新的回應或分享給朋友。
圖/截圖自 Cofacts 群組

你可能會好奇,當今的「人工智慧」(AI)已可查核假訊息,為何 Cofacts 還在仰賴編輯志工這樣的「工人智慧」?李梅君指出,目前的 AI 僅可以偵查大規模的操弄訊息來源,或者評估影像有無修圖造假。當前要用 AI 來判讀文字內容的真偽還相當困難,因為一則文字訊息通常真假資訊參雜,當中還包括個人意見或情緒用詞,很難明確判定是真是假。

因此,Cofacts 的編輯志工除了指出訊息錯誤之處,也會提醒該則訊息是否含有個人意見,有助民眾從封閉的 LINE 群組接收外界聲音,進而創造一處可以參與討論的公共空間,共同思考謠言是什麼、怎麼跟謠言對話。

和時間賽跑 艱辛的闢謠之路

不過該計畫也有艱辛之處,由於需仰賴大量人力進行事實查核,Cofacts 經常面臨闢謠速度趕不上謠言散播的問題。根據統計,Cofacts 的 LINE 目前有 42 萬名好友,過去 10 週每週傳來約 650 則新謠言;目前登記的編輯志工大約有 2,600 多人,但每週會固定回應訊息者只有 20 人上下,平均澄清一則謠言要花 20 至 30 分鐘。

李梅君分享實際參與事實查核的心得:「一開始你可能很熱血地上線回應訊息,但回應了一、二天後,可能會逐漸失去參與感,畢竟你只是一個沒支薪的志工,而且很多謠言看了又很令人痛苦,還要耐著性子花 30 分鐘回應。」

因此,為了維持志工夥伴的參與熱情,Cofacts 每個月都會辦一次聚會,藉由分組競賽活動,讓志工們培養共同打怪的向心力,也可相互交流查核經驗、結交志同道合的朋友。

李梅君分享實際參與 Cofacts 事實查核的心得,編輯志工透過每月聚會維繫共同打怪的向心力。
圖/研之有物

至於使用 Cofacts 釐清謠言的民眾又有何回饋呢?李梅君聽過一些年輕志工分享參與事實查核的原因,主要是想透過 Cofacts 的第三方資訊與長輩對話。雖然不確定長輩能否接受,卻可盡量避免家人之間發生正面衝突。

根據李梅君的觀察,在政治議題上,純粹處理謠言無法真正化解世代衝突,因為謠言只是表現形式之一,背後牽涉每個人不同的價值觀與政治立場,需仰賴更多對話空間的產生。

不過,在疫情期間,與防疫相關的健康資訊則明顯受到不同世代的共同關注,Cofacts 的使用人數因此大幅成長,其中增加最多的就是 50 歲以上的使用者。因為健康資訊較不受政治立場影響,再加上全民必須共同面對疫情威脅,世代衝突的問題自然較少。

公民團體的辛勤奔走 努力提升全民媒體素養才是真正的關鍵

ChatGPT 等生成式 AI 問世後,未來可能會出現更多人為操作的假圖文,或是誤信 AI 偏差回覆等狀況。面對上述危機,李梅君認為:

應對關鍵在於,大眾是否具備足夠的「媒體素養」與「思辨能力」去判讀網路訊息。

可惜這在我們過去的教育裡並不受重視,直到近幾年教育部才開始在 108 課綱下推動「媒體素養教育」,要求在不同年級與學科中融入媒體素養課程。例如資訊課會介紹社群媒體用演算法投放廣告的邏輯;理化課會教學生分辨並思考「偽科學」的成因;國文課則透過閱讀不同文本培養思辨能力。

然而,社會上多數人沒有上過相關課程,很多還是不太熟悉數位工具的長輩,幸好現在有 Cofacts 以及多家臺灣公民團體在做媒體素養教育。他們主動走進長輩的生活圈,教長輩怎麼使用手機、如何確認訊息真假,甚至鼓勵長輩善用發早安圖的習慣,成為謠言破除推手。

李梅君目前的研究正在觀察這些公民團體怎麼採取行動。例如 NGO 組織「假新聞清潔劑」會前進廟口、菜市場或老人服務中心等長輩聚集地,舉辦街頭宣講活動。在宣講過程中,一開始不會直接跟長輩講假訊息,因為假訊息在臺灣的脈絡裡很容易被導向敏感的政治議題,誤以為要聊網軍。

因此,宣講的切入點通常會先問長輩是不是常收到詐騙訊息?接著,志工會分享一些受騙案例,例如有人買了網路一頁式廣告的保養品,結果臉爛掉;或是吃了來路不明的保健食品,最後弄壞身體。藉由生活化、無政治立場、令人感同身受的案例,讓長輩意識到學會辨別訊息真假很重要!

另一個事實查核的組織「MyGoPen|麥擱騙」會製作一則則精美的謠言澄清圖文,吸引長輩像發早安圖一樣,將這些闢謠圖文大量轉發到各個群組。如此一來,長輩本身既可釐清謠言,還可幫助更多長輩遠離詐騙,更證明自己擁有不輸給年輕人的知識與能力。

「MyGoPen/麥擱騙」製作的謠言澄清圖文,網站上也有詳細的澄清說明與參考資料
圖/截圖自 MyGoPen 群組

「我覺得這是很令人感動的事情,因為這個題目很難,可是有很多人願意用不同的角度去介入,而且大部分都是志工。」李梅君有感而發的說。

臺灣長期被國際視為境外假訊息泛濫的國度,如今一個提升全民媒體素養的生態圈正在形成,因假訊息而延伸出的世代衝突問題有待長時間相互理解溝通,但公民社群的力量讓人們看見改變的契機。

李梅君有感而發的談到,過去很多國際友人將臺灣視為一處被假訊息攻擊很嚴重的地方,現在我們已發展出一個應對的生態圈,國際上越來越多人來跟臺灣學習!圖/研之有物

延伸閱讀

所有討論 1
研之有物│中央研究院_96
288 篇文章 ・ 2916 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

5
1

文字

分享

0
5
1
人造腦挑戰 AI!培養皿中的腦組織+腦機介面能打敗電腦嗎?
PanSci_96
・2023/05/27 ・3178字 ・閱讀時間約 6 分鐘

2023 年 2 月底, 約翰霍普金斯大學教授 Thomas Hartung 帶領研究團隊,發表了「類器官智慧」(Organoid intelligence , OI)的研究成果,希望利用腦類器官加上腦機介面,打造全新的生物計算技術。

我們終於要製造人工大腦了嗎?OI 和 AI,誰會成為未來主宰?

類器官智慧 OI 是什麼?目標為何?

2023 年的現在,AI 就已展現了不少驚人的實際成果;相較之下, OI 仍只是一個剛起步的計畫,甚至連名稱都與 2018 年美國《自然—物理學》期刊專欄作家、物理學家布坎南以 Organoids of intelligence 作為標題的文章幾乎一樣。

類器官智慧、Organoid intelligence、OI 是個很新的跨領域名詞,同時結合了「腦類器官」和「腦機介面」兩個領域的技術。

簡單來說,腦類器官就是指透過培養或誘導多能幹細胞(iPSCs),在模擬體內環境的旋轉生物反應器中,產生的腦組織。這項聽起來好像只會出現在科幻電影裡的技術,確實已經存在。

最早的腦類器官是在 2007 年,日本 RIKEN 腦研究所的笹井芳樹和渡辺毅一的研究團隊,成功從人類胚胎幹細胞培養出前腦組織。第一個具有不同腦區的 3D 腦類器官則是發表在 2013 年的《Nature》期刊,由奧地利分子技術研究所的尤爾根.科布利希和瑪德琳.蘭開斯特研究團隊成功建立。

腦類器官的出現,在生物與醫學研究中有重大意義,這代表未來科學家們若需要進行大腦相關的研究,再也不用犧牲實驗動物或解剖大體老師來取得人類大腦,只需要在培養皿就製造出我們要的大腦即可。

儘管培養皿上的組織確實是大腦組織,但不論是在大小、功能,以及解剖構造上,至今的結果仍遠遠不及我們自然發育形成的大腦。因此要達到 OI 所需要的「智慧水準」,我們必須擴大現有的腦類器官,讓他成為一個更複雜、更耐久的 3D 結構。

要達到 OI 所需的「智慧水準」,必須擴大現有的腦類器官,成為一個更複雜的 3D 結構。圖/GIPHY

而這個大腦也必須含有與學習有關的細胞和基因,並讓這些細胞和 AI 以及機器學習系統相連接。透過新的模型、演算法以及腦機介面技術,最終我們將能了解腦類器官是如何學習、計算、處理,以及儲存。

OI 是 AI 的一種嗎?

OI 能不能算是 AI 的一種呢?可說是,也不是。

AI 的 A 指的是 Artificial,原則上只要是人為製造的智慧,都可以稱為 AI。OI 是透過人為培養的生物神經細胞所產生的智慧,所以可以說 OI 算是 AI 的一種。

但有一派的人不這麼認為。由於目前 AI 的開發都是透過數位電腦,因此普遍將 AI 看做數位電腦產生的智慧—— AI 和 OI 就好比數位對上生物,電腦對上人腦。

OI 有機會取代 AI ?它的優勢是什麼?

至於為何電腦運算的準確度和運算速度遠遠高於人腦,最主要原因是電腦的設計具有目的性,就是要做快速且準確的線性運算。反之,大腦神經迴路是網狀、活的連結。

人類本身的基因組成以及每天接收的環境刺激,不斷地改變著大腦,每一分每一秒,我們的神經迴路都和之前的狀態不一樣,所以即使就單一的運算速度比不上電腦,但人腦卻有著更高學習的效率、可延展性和能源使用效率。在學習一個相同的新任務時,電腦甚至需要消耗比人類多 100 億倍的能量才能完成。

神經網路接受著不同刺激。圖/GIPHY

這樣看來,至少 OI 在硬體的效率與耗能上有著更高優勢,若能結合 AI 與 OI 優點,把 AI 的軟體搭載到 OI 的硬體上,打造完美的運算系統似乎不是夢想。

但是 OI 的發展已經到達哪裡,我們還離這目標多遠呢?

OI 可能面臨的阻礙及目前的發展

去年底,澳洲腦科學公司 Cortical Labs 的布雷特.卡根(Brett Kagan)帶領研究團隊,做出了會玩古早電子遊戲《乓》(Pong)的培養皿大腦—— DishBrain。這個由 80 萬個細胞組成,與熊蜂腦神經元數量相近的 DishBrain,對比於傳統的 AI 需要花超過 90 分鐘才能學會,它在短短 5 分鐘內就能掌握玩法,能量的消耗也較少。

現階段約翰霍普金斯動物替代中心等機構,其實只能生產出直徑大小約 500 微米,也就是大約一粒鹽巴大小的尺寸的腦類器官。當然,這樣的大小就含有約 10 萬個細胞數目,已經非常驚人。雖然有其他研究團隊已能透過超過 1 年的培養時間做出直徑 3~5 毫米的腦類器官,但離目標細胞數目 1000 萬的腦類器官還有一段距離。

為了實現 OI 的目標,培養更大的 3D 腦類器官是首要任務。

OI 的改良及多方整合

腦類器官畢竟還是個生物組織,卻不像生物大腦有著血管系統,能進行氧氣、養分、生長因子的灌流並移除代謝的廢物,因此還需要有更完善的微流體灌流系統來支持腦類器官樣本的擴展性和長期穩定狀態。

在培養完成腦類器官以及確定能使其長期存活後,最重要的就是進行腦器官訊息輸入以及反應輸出的數據分析,如此我們才能得知腦類器官如何進行生物計算。

受到腦波圖(EEG)紀錄的啟發,研究團隊將研發專屬腦類器官的 3D 微電極陣列(MEA),如此能以類似頭戴腦波電極帽的方式,把整個腦類器官用具彈性且柔軟的外殼包覆,並用高解析度和高信噪比的方式進行大規模表面刺激與紀錄。

研究團隊受腦波圖(EEG)紀錄的啟發。圖/Envato Elements

若想要進一步更透徹地分析腦類器官的訊號,表面紀錄是遠遠不夠的。因此,傷害最小化的的侵入式紀錄來獲取更高解析度的電生理訊號是非常重要的。研究團隊將使用專門為活體實驗動物使用的矽探針Neuropixels,進一步改良成類腦器官專用且能靈活使用的裝置。

正所謂取長補短,欲成就 OI,AI 的使用和貢獻一點也不可少。

下一步,團隊會將進行腦機介面,在這邊植入的腦則不再是人類大腦,而是腦類器官。透過 AI 以及機器學習來找到腦類器官是如何形成學習記憶,產生智慧。過程中由於數據資料將會非常的龐大,大數據的分析也是無可避免。

隨著 AI 快速發展的趨勢,OI 的網路聲量提升不少,或許將有機會獲得更多的關注與研究補助經費,加速研究進度。更有趣的是,不僅有一批人希望讓 AI 更像人腦,也有另一批人想要讓 OI 更像電腦。

生物、機械與 AI 的界線似乎會變得越來越模糊。

OI=創造「生命」?

生物、機械與 AI 的界線越來越模糊。圖/Envato Elements

講到這裡,不免讓人擔心,若有一天 OI 真的產生智慧,我們是否就等於憑空創造出了某種「生命」?這勢必將引發複雜的道德倫理問題。

雖然研究團隊也強調, OI 的目標並不是重新創造人類的意識,而是研究與學習、認知和計算相關的功能,但「意識究竟是什麼」,這個哲學思辨至今都還未有結論。

到底懂得「學習」、「計算」的有機體能算是有意識嗎?如果將視覺腦機介面裝在 OI 上,它是否會發現自己是受困於培養皿上,被科學家們宰割的生物計算機?

不過這些問題不僅僅是 OI 該擔心的問題,隨著人工智慧的發展,GPT、Bing 和其他由矽構成的金屬智慧,隨著通過一個又一個智力、能力測試,也終將面臨相應的哲學與倫理問題。

最後,Neuralink 的執行長馬斯克說過(對,又是他 XD),人類要不被 AI 拋下,或許就得靠生物晶片、生物技術來強化自己。面對現在人工智慧、機械改造、生物晶片各種選擇擺在眼前,未來你想以什麼樣的型態生活呢?

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

PanSci_96
1190 篇文章 ・ 1755 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。