可變性原則並不完美。對於哪些事情可變、哪些又不可變,我們可能會誤判。然而,這套原則有一個很大的優勢:能讓我們把推理的焦點,放在那些我們有能力影響、更改、或塑造的事物上,幫助我們看到選項,採取行動。像是要趕到城市另一邊開會,卻又快遲到的時候,我們只會認真考慮該搭地鐵還是計程車,而不會想像什麼很科幻的懸浮列車。對 SpaceX 來說,他們就是認真考慮該用怎樣的工程方案,以減緩下降速度。對以色列指揮官尚龍准將(Lt. Gen. Dan Shomron)來說,恩德培行動(Operation Entebbe)就是必須準備「遭遇烏干達部隊的阻撓時,該如何作戰」的方案,而不會打算在戰火正盛的時候,去說服對方棄械投誠。
由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?
ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。
一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!
中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?
讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。
-----廣告,請繼續往下閱讀-----
怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?
會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。
後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。
AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?
而在太陽系目前已知的一百多萬顆小行星中,有一個相當特殊的族群,它們大多具有較大的密度和較高的雷達反照率,同時在光譜上缺乏特徵。基於上述特點,科學家們認為它們的組成中有含有不少金屬,因此稱之為 M 型小行星。
根據目前天文學家對行星形成的理解,原行星盤(protoplanetary disk)中的金屬元素分布理應相當分散,因此能夠自然產生元素分異並聚集大量金屬的地方,只有足夠大、足夠熱的原行星(protoplanet)的行星核。所以傳統上,M 型小行星被視為受到撞擊後裸露的行星核,同時也是鐵隕石的來源之一。但截至目前,仍未有探測器直接造訪 M 型小行星,確認這個假說是否正確。
-----廣告,請繼續往下閱讀-----
近期,新的觀測資料更顯示,某些 M 型小行星似乎比人們預想的還輕,各種特徵也和人們對行星核的認知不盡相同(例如,在表面觀測到含水礦物的訊號)。這表示傳統的行星形成與演化模型,也許不盡正確。換個角度看,這也代表對 M 型小行星的研究,也許將能幫助我們揭開行星演化理論中的盲區。
M 型小行星是由什麼構成的?它們的演化歷史又是如何?苦於距離遙遠,過去人們對這些問題往往只能止於粗略的推測。但隨著靈神星號任務逐漸上軌,我們離解答這些問題(的一部分)只有一步之遙了。
靈神星探索任務
靈神星探索任務(Psyche)是 NASA 發現計畫(Discovery Program)的一部分。發現計畫始於 1989 年,每隔幾年就會向全美國徵求任務提案,經過重重篩選後,最具有科學價值且最可行的團隊,就可以獲得 NASA 提供的經費,將他們的構想付諸實行。從 1996 年的 NEAR 任務開始,發現計畫已經為十幾個重要的太陽系探索任務提供機會,包含近期因太陽能板發電量降低而終止的火星「洞察號(InSight)」任務。2014 年,第 13、14 次發現計畫徵選開始,最後脫穎而出的其中一個計畫,正是靈神星探索任務。