0

1
0

文字

分享

0
1
0

在電腦時代,學會當「人」更重要——《打開演算法黑箱》書評

臉譜出版_96
・2019/05/07 ・2549字 ・閱讀時間約 5 分鐘 ・SR值 527 ・七年級

  • 文/張智皓

「在演算法的年代,人類從未如此刻這般的重要。」——弗萊(Hannah Fry)

圖靈(Alan Turing)在 1936 年提出圖靈機(Turing Machine)的基本構想,人類文明揭開了電腦時代的序幕,並在很短時間內為人類生活帶來了劇烈的變化。上一次有這樣的景況,大概是 17 世紀末蒸汽機的發明,帶領人類文明進入工業時代。

進入工業時代,給人帶來便利同時製造難題。圖/pixabay

這兩個時代有類似之處。蒸汽機讓人開始擔心自己被機械取代:生產模式改變,人力不再重要,生產機器和失業人口大量出現。然而,這種困境並沒有維持太久。新技術讓人失業,也拓展了人的想像力,讓各種新興行業與技術應運而生。這些行業和技術促進產業轉型,反而提高了人力需求,讓人類文明變得更加繁盛。此時,我們知道人類變得比以前更重要。

電腦,或者我們說,演算法,就像是現代的蒸氣機,同樣大幅地改變人類生活模式。在本書中,倫敦大學學院(UCL)先進空間分析中心(CASA)的數學家漢娜弗萊從權力、資料、司法、醫療、車輛、犯罪與藝術這七個面向出發,告訴我們演算法已經如何深入我們日常生活中,為我們帶來前所未見的巨大貢獻,並展現出取代人類的企圖心。

科技帶來便利,但人類始終更了解人類。圖/pixabay

更重要的是,弗萊也透過她細膩的觀察,提醒我們:就如同蒸汽機時代的人類沒有被取代一樣,在演算法時代,人類也只會比以前更重要。

人機合作,讓人類的棋藝再創高峰

讓我們從書中一個輕鬆的例子開始。弗萊告訴我們,在 1997 年,西洋棋世界冠軍卡斯帕洛夫(Gary Kasporov)被 IBM 設計的「深藍」擊敗後,他並沒有因此排斥電腦,反之,他創辦了人類與電腦合作的棋賽。卡斯帕洛夫相信,有了電腦的輔助,人類不再需要花時間在棋盤細節的計算上,而是將心思放在整體戰略上,人機合作,能讓人類的棋藝再創高峰。

-----廣告,請繼續往下閱讀-----

這樣的劇情非常類似於 DeepMind 的圍棋軟體 AlphaGo 在 2016 年的創舉。在 AlphaGo 相繼打敗世界冠軍李世乭以及柯潔後,AlphaGo 以及其繼任 AlphaGo Zero 的棋譜變成職業選手們爭相學習的目標。DeepMind 甚至推出 AlphaGo 圍棋教學工具,讓大家學習它的佈局,並進而開發出新的佈局形式。AlphaGo 沒有取代人類棋手,反之,它為圍棋世界注入了新的生命。

兩方交流為圍棋注入新的氛圍。圖/pixabay

演算法無法回答的問題:隱私與安全該如何平衡

接著讓我們談談一個較嚴肅的例子。在本書「犯罪」這一章節中,弗萊提到「臉孔辨識系統」如何對人類產生顯而易見的貢獻。在 2015 年,紐約警察局透過臉孔辨識系統「成功指認了 1700 名嫌犯,並且發動了 900 次逮捕行動。」另外,她也提到從 2010 年以來,紐約州「僅僅針對詐欺和身分盜用就發動了超過四千次逮捕行動。」有了臉孔辨識系統,各大交通運輸管道也可藉恐怖份子資料庫來預防恐怖襲擊(而事實證明這很有用)。

你想要偏向安全,還是隱私?圖/pixabay

作為預防手段,臉孔辨識系統可以有效增進人們生命與財產之安全。但這些好處有其代價。弗萊指出,就連目前全世界最先進的臉孔辨識系統(來自於中國的「騰訊優圖實驗室」),在一百萬張臉孔資料庫的測試中,也只有 83.29% 的辨識率。這在技術上已經令人佩服,但在現實中卻可能釀成大禍。

比方說,2014 年,一位住在丹佛的居民被錯誤辨識為銀行搶匪,並在警察的逮捕過程中「遭受神經損傷、血栓及陰莖折斷。」或許有人會主張,只要技術更好,辨識率更高,問題就解決了。但情況可能沒這麼簡單,辨識率提高的代價是隱私度的下降。試問,我們願意讓「老大哥」看著大家嗎?

-----廣告,請繼續往下閱讀-----

臉孔辨識系統有其好處,有其代價。我們願意讓此系統做到甚麼程度?為了安全,我們願意犧牲多大的隱私?而為了隱私,我們又願意犧牲多少安全?這些問題是演算法無法回答的,只有人類可以,因此,人類只會更重要。

演算法兩難:自駕車該拯救駕駛還是行人?

另外一個嚴肅例子,我想談談「車輛」這一章節中的自動駕駛技術。一旦自動駕駛技術普及,將可以大幅減少人為車禍的發生。而我們知道,現代大多數車禍都源於人為。然而,將駕駛工作交給演算法,也意味著將決策的任務交給演算法。當失控的自駕車面臨的選項是「拯救駕駛,還是拯救行人」時,演算法應該如何行動?

當自動駕駛遭遇電車難題,我們又希望它做出什麼選擇?圖/WIKI

弗萊提到,在 2016 年發表於《科學》期刊(Science)的一篇文章指出,多數人主張應該盡可能的拯救更多人命。然而,當詢問他們自身較願意購買哪一款自駕車時,我們可以從賓士汽車發言人胡苟(Christoph von Hugo)的回應(當被問到賓士車會如何設計時),理解他們的猶豫:「保護駕駛。」

這衝突看起來不可調和,我們一方面希望盡可能拯救人命,另一方面又希望可以保障駕駛的安全(否則我幹嘛買它呢?)。在這樣的衝突中,弗萊指出另外一個可能選項:放棄全自動駕駛,將演算法的目標放在輔佐駕駛人上(比方說,現在已有的「自動緊急煞車」或「自動與前車保持距離」等設計)。換言之,演算法不扮演「司機」,而是扮演「守護者」。我們該做的,是讓演算法配合人類,主動性依然在人類手上,因此,人類只會更重要。

-----廣告,請繼續往下閱讀-----
自動駕駛的衝突難題。圖/pixabay

在《打開演算法黑箱》中,弗萊透過大量有趣的案例,說明演算法如何深入日常的同時,也提醒我們人類的重要性,這是我認為本書最大的優點。新技術的提出值得受到肯定,然而,在肯定其貢獻的同時,背後所付出代價卻往往會被忽略。本書在闡述新技術的同時,也很平衡地展示這些技術背後的代價。

就如同作者一再強調的,她肯定技術所帶來的好處,但我們必須思考如何在新技術所帶來的進步中,保有人類的主動性,或者說,如何在機器年代中當個人。

 

《打開演算法黑箱》書封

本文為《打開演算法黑箱:反噬的AI、走鐘的運算,當演算法出了錯,人類還能控制它嗎?》書評

文章難易度
臉譜出版_96
85 篇文章 ・ 255 位粉絲
臉譜出版有著多種樣貌—商業。文學。人文。科普。藝術。生活。希望每個人都能找到他要的書,每本書都能找到讀它的人,讀書可以僅是一種樂趣,甚或一個最尋常的生活習慣。

0

3
1

文字

分享

0
3
1
群眾監控科技:以 2023 雪梨世界驕傲節為例
胡中行_96
・2023/03/16 ・3422字 ・閱讀時間約 7 分鐘

-----廣告,請繼續往下閱讀-----

COVID-19 疫情趨緩後,各國都敞開大門,迎接國際觀光客。今年雪梨同志狂歡節(Sydney Gay and Lesbian Mardi Gras)的主辦單位,與 InterPride 合作,將活動升級為 2023 雪梨世界驕傲節(Sydney World Pride)。[1]其中最受矚目的年度大遊行,也於 2 月 25 日晚間,重磅回歸 Oxford 和 Flinders 兩街。[2, 3]

今年遊行中,率先登場的女同志團體「Dykes on Bikes」。圖/胡中行攝(CC BY-SA 4.0)
今年遊行的第二個隊伍,是男同志團體「Boys on Bikes」。圖/胡中行攝(CC BY-SA 4.0)

警察的角色

澳洲雪梨一年到頭,觀光活動難以計數。從知名的跨年煙火、國慶典禮、體育賽事、聖誕市集、繽紛雪梨燈光音樂節(Vivid Sydney)到同志狂歡節等,[4]負責維安的警察早已身經百戰,什麼場面都見過了。如果當天鬧事被逮的人數不多,他們有時還會在事後,透過新聞稿嘉勉群眾幾句。[5]雖然新南威爾斯州警察,在1978年拘捕同志運動抗爭者;但誰也沒想到他們後來化敵為友,自 1998 年起,竟每屆都組隊參加遊行。[6, 7]

2023 年面對前所未有的人潮挑戰,他們派出 900 多名員警,並與主辦單位、雪梨市政府、科技保全公司,以及州政府的觀光、交通、消防和急救等部門攜手合作。[2, 7]

曾參與 1978 年抗爭的同志乘車遊行,受到群眾熱烈歡迎。圖/胡中行攝(CC BY-SA 4.0)
新南威爾斯州警察今年的遊行花車。(不含背景右上的彩虹旗。)圖/胡中行攝(CC BY-SA 4.0)

RAMP分析

根據英國曼徹斯特都會大學(Manchester Metropolitan University)G. Keith Still 教授 30 多年的經驗,規劃大型活動時,要從 RAMP 分析(RAMP Analysis)的 4 個面向,評估群眾安全。[8]

-----廣告,請繼續往下閱讀-----
  1. 路線(routes):進入與離開的方向。[8]雪梨同志遊行的隊伍,一般不超出 Oxford 和 Flinders 這兩條街。[2]遊客則必定是從四面八方,逐漸湧入。
  2. 區域(areas):人群聚集的範圍。[8]當天的交通管制,擴及市中心與市郊的幾條主要幹道。[9]
  3. 動向(movement):進場及散場的時間。[8]官網號稱遊行從晚上 6 開始,預計 11 點結束。[10]實際上,觀眾提早幾個小時佔位,正式開幕的時間為晚上 7 點左右,而結束後不少人仍於附近逗留。各街道的交通管制不同,最早從下午 2 點開始,最晚至隔天凌晨 4 點結束。[9]
  4. 群眾(people):對參與群眾的了解。[8]官方預計有 1 萬 2 千 500 人和 200 多輛花車參與遊行。[10]此外,疫情解封以及世界驕傲節的國際觀光效應,勢必帶來人數龐大,而且類型多元的遊客。

此活動行之有年,遊行的路線、群眾聚集的區域,以及周邊交通管制的規劃等,多少都有參考依據。唯一可能比較難以預測的,是今年會增加的遊客。

遊行開始前,Oxford 和 Flinders 街口的人海。圖/胡中行攝(CC BY-SA 4.0)
散場時,尚未撤離的維安、急救、轉播和封街用車輛。圖/胡中行攝(CC BY-SA 4.0)

群眾與手機

為了精準掌握群眾的情形,這次遊行首度依循跨年和燈光音樂節的模式,請動態群眾測量(Dynamic Crowd Measurement)公司在遊行地點周邊,架設了臨時性的監視攝影機與手機偵測器材。[2]

  1. 監視攝影機:配合相應的軟體,從蒐集到的個體表情,例如:開心、中性、難過、生氣等,分析群眾情緒的平均值。同時,測量他們步行移動的速度[2]
  2. 手機訊號:現在幾乎人手一機,由手機通訊用的電磁波,便可推估現場人數。接受《雪梨晨鋒報》(Sydney Morning Herald)訪問的專家認為,不仰賴基地臺的技術,可以避免人數過多時,電信網絡的數據失準。動態群眾測量公司在附近店面,安裝臨時性的偵測器材。[2]
澳洲原住民團體帶了一條蛇來助興。圖/胡中行攝(CC BY-SA 4.0)
技職學校(TAFE)隊伍的大型人偶。圖/胡中行攝(CC BY-SA 4.0)

監控軟體的功能

監視攝影機蒐集到的數據,會被上傳雲端,並呈現於動態群眾測量公司設計的軟體。[11]遊行當天,由主辦單位的工作人員監控,再將必要的資訊報告給警方,以疏導聚眾。[2]下面是該公司官網,所介紹的軟體特色功能:[12]

  1. 地理空間熱區圖(geospatial heatmap):地圖以不同顏色,顯示人群的密集程度,並附帶群眾情緒和人流速度等資訊。[12]
  2. 警報程度指標(alert level indicator):將各區域的危險程度,分級且視覺化,方便監控者一目了然。[12]
  3. 區域監視(zone monitor):群眾密度、情緒和移動速率的警示程度,各區域可以分開設定。[12]
  4. 數據回放(data playback):除了即時監控,已經上傳雲端的數據,也能重新調出來檢視。[12]
  5. 通知管理(notifications manager):客製化群眾密度、情緒平均值,或移動速率等警示,以接收特定的更新資訊通知。[12]
  6. 視覺驗證(visual validator):將即時影像或地理空間熱區圖,與數據並列比較。[12]
動態群眾測量公司的軟體介紹影片,範例地圖是臨近雪梨歌劇院的環形碼頭。影/參考資料11

隱私疑慮

美國喬治城大學法律中心(Georgetown University Law Center)的 Paul Ohm 教授曾說,手機的位置,不該被視為匿名數據。試想一個人幾乎每天在住家與公司之間往返,從手機蒐集到的地理資訊,還真能推測出其身份。[13]所以,參與雪梨同志遊行的群眾,是否有個人隱私外洩的疑慮?主辦單位的發言人表示,他們單純偵測範圍內的手機數量,不包含任何個人化特徵。另外,監視攝影機不具人臉辨識功能,影像也不留紀錄,只儲存數據,因此大家不用擔心。[2]

-----廣告,請繼續往下閱讀-----
雪梨舞蹈團的遊行花車。圖/胡中行攝(CC BY-SA 4.0)
工人團體的遊行花車。圖/胡中行攝(CC BY-SA 4.0)

通宵達旦

遊行吸引 30 萬人聚集,[14]連總理 Anthony Albanese 也親臨現場,成為第一位參加此活動的澳洲現任元首。[3]整晚狂歡不夠,據報相關的官方派對,還續攤到翌日早晨 8 點。[14]遊行當天有 4 人遭到逮捕;而衝突過程中,1 名員警似乎斷了鼻子,另個眼睛瘀青。[7, 15]除此之外,賴在地上阻擋花車的國會議員 Lidia Thorpe,被和平勸離,並登上各大媒體。[16]新南威爾斯州警察在新聞稿中,表示滿意群眾表現,請大家在 2023 雪梨世界驕傲節剩餘的活動裡,繼續關照彼此的安全。[7]

總理 Anthony Albanese 是第一位參加同志遊行的澳洲現任元首。圖/Anthony Albanese on Twitter

  

參考資料

  1. InterPride. ‘Proud to be here – Who we are’. Sydney World Pride 2023. (Accessed on 27 FEB 2023)
  2. Grubb B. (24 FEB 2023) ‘How your phone and mood will be tracked at Mardi Gras’. Sydney Morning Herald.
  3. Anthony Albanese makes history as first sitting PM to march in Sydney’s Mardi Gras parade’. (26 FEB 2023) SBS News.
  4. Destination NSW. ‘Sydney, Australia’. Sydney.com. (Accessed on 26 FEB 2023)
  5. Police pleased with behaviour of revellers during 2022 New Year’s Eve celebrations’. (01 JAN 2023) NSW Police Force.
  6. The Age & Sydney Morning Herald. (24 FEB 2023) ‘Sydney Mardi Gras – from ’78 to World Pride’. YouTube.
  7. 45th Mardi Gras celebrated in high spirits and perfect weather’. (26 FEB 2023) NSW Police Force.
  8. Still GK. (2019) ‘Crowd Science and Crowd Counting’. Impact, 2019(1): 19-23.
  9. InterPride. ‘Sydney Worldpride 2023 Road Closures’. Sydney World Pride 2023.  (Accessed on 01 MAR 2023)
  10. InterPride. ‘Mardi Gras Parade’. Sydney World Pride 2023. (Accessed on 26 FEB 2023)
  11. Shortstories Media. (28 JUL 2022) ‘DCM/Dynamic Crowd Measurement Explainer Video’. YouTube.
  12. DCM Features’. Dynamic Crowd Measurement. (Accessed on 28 FEB 2023)
  13. Thompson SA, Warzel C. (19 DEC 2019) ‘Twelve Million Phones, One Dataset, Zero Privacy’. The New York Times.
  14. Hyland J, Pearson-Jones B. (26 FEB 2023) ‘The morning after! Mardi Gras revellers finally start heading home as the last official party ends at 8am – and there’ll be some sore heads today’. Daily Mail Australia.
  15. Sarkari K, Sciberras A. (26 FEB 2023) ‘Police praise behaviour of Mardi Gras attendees as Anthony Albanese makes history’. 9News.
  16. Hildebrandt C. (27 FEB 2023) ‘Federal senator Lidia Thorpe halts Sydney’s Mardi Gras parade with police protest’. ABC News.
胡中行_96
169 篇文章 ・ 65 位粉絲
曾任澳洲臨床試驗研究護理師,以及臺、澳劇場工作者。 西澳大學護理碩士、國立台北藝術大學戲劇學士(主修編劇)。邀稿請洽臉書「荒誕遊牧」,謝謝。

1

2
0

文字

分享

1
2
0
AI 也會出差錯?使用人工智慧可能帶來的倫理與風險——《科學月刊》
科學月刊_96
・2023/02/19 ・3976字 ・閱讀時間約 8 分鐘

  • 甘偵蓉|清華大學人文社會 AI 應用與發展研究中心博士後研究學者。

Take Home Message

  • Facebook 或 Instagram 的訊息推薦、YouTube 或 Netflix 推薦觀賞影片、掃瞄臉部以解鎖手機,AI 應用早已在我們日常生活中隨處可見。
  • AI 應用中四種常見的倫理和風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。
  • 近年來各國家皆制訂有關 AI 發展的規範,臺灣則在 2019 年制訂「AI 科研發展指引」,期望能改善 AI 發展帶來的問題與風險。

當談到人工智慧(artificial intelligence, AI)、也就是 AI 時,讀者會想到什麼?是多年前由史匹柏(Steven Spielberg)導演的那部《A.I. 人工智慧》(A.I. Artificial Intelligence)中那個一直盼不到人類母愛而令人心碎的機器人小男孩?還是由史密斯(Will Smith)主演的《機械公敵》(I, Robot)裡那些沒遵守機器人三大法則的機器人或中央系統?

《A.I. 人工智慧》(A.I. Artificial Intelligence)電影海報,上映於 2001 年。圖/IMDb

或許未來有一天,人類真的可以設計出如電影中那些像人一樣的 AI 系統或機器人。但目前為止,你常聽到的 AI 其實既很厲害又很不厲害,為什麼呢?厲害的是它下圍棋可贏過世界冠軍,還能夠比放射科技師更快、更準確地辨識 X 光片中疑似病變的細胞;但它不厲害的是,很會下圍棋的 AI 就只能下圍棋,別說不會打牌,連撲克牌是什麼都不知道!而且每次學新事物幾乎都是打掉重練,得不斷做好多考古題才有可能學得會,不像人類通常教幾次就會舉一反三。

不過,即使目前世界上的 AI 都是這種只具備特定功能的「弱 AI」(artificial narrow intelligence, ANI),但已經為這個世界帶來相當大的進步與便利。所以,以下要談的就是 ANI 的倫理與風險。

談到這種只具特定功能的 ANI,讀者知道目前生活周遭有哪些事物有利用 AI 技術嗎?其實 Google 上的搜尋資訊、Facebook 或 Instagram 的訊息推薦、對智慧型手機喊「Siri 現在外面有下雨嗎?」等功能,或是以掃瞄臉部解鎖手機與進入大樓、YouTube 或 Netflix 推薦觀賞影片,甚至是投履歷求職、銀行審核貸款申請等都常用到 AI 技術,它早在我們日常生活中隨處可見。

-----廣告,請繼續往下閱讀-----
AI 技術在日常生活中隨處可見,如 YouTube 推薦觀看影片。圖/Pexels

但也正是如此,讓人們這幾年在使用 AI 時,逐漸發現它可能造成的問題或傷害,以下簡單介紹常見的四種AI應用可能造成的倫理問題或風險。

演算法偏誤

第一種是演算法偏誤(algorithmic bias)。什麼是演算法偏誤?簡單來說就是 AI 在某些群體的判斷準確率或預測結果上總是很差,導致結果可能對於此群體造成系統性的不利。但為何會造成演算法偏誤?常見原因有三項。

第一項原因是,建立 AI 模型的研究資料集有偏誤,在性別、種族、社經地位等特徵上,沒有真實世界的人口分布代表性。例如數位裝置採用 AI 臉部辨識技術解鎖,原本是希望保護個人使用數位裝置的安全性,結果皮膚深的人卻常常遇到辨識失敗而無法解鎖。這通常是因為目前許多 AI 模型都是以機器學習技術設計,而機器學習的主要特性就是從過去人類留下的大量資料中學習;當初提供電腦學習臉部辨識的圖片時,如果多數都是白皮膚而非黑皮膚、多數都是男性的臉而非女性的臉,那麼電腦在學習辨識人臉的準確率上,整體而言辨識男性白人就會比辨識女性黑人要高出許多。

第二項產生演算法偏誤的原因是建立 AI 模型的研究資料集不只有偏誤,還反映現實社會中的性別、種族、社經地位等歧視;例如美國警政單位以過往犯罪資料訓練出獄後犯人再犯風險評估的 AI 模型,那些資料不意外地有色人種的犯罪紀錄遠多於白人犯罪紀錄。然而,那些紀錄也反映美國社會長久以來對於有色人種的歧視,其中包含警察對於有色人種的盤查比例遠高於白人、法院對於有色人種的定罪比例及判刑嚴重程度也遠高於白人、警力通常被派往多黑人與拉丁裔人種居住的窮困社區盤查等。所以根據過往犯罪資料所訓練出來的 AI 模型,不意外地也就會預測有色人種的再犯機率普遍來說比白人高。

-----廣告,請繼續往下閱讀-----

第三項產生演算法偏誤的原因則是 AI 學會了連系統開發者都沒有察覺到,潛藏在資料裡的偏誤。例如科技公司人資部門本來想借助 AI 更有效率地篩選出適合來面試的履歷,所以挑選在該公司任職一定年資且曾升遷二次的員工履歷來訓練 AI 模型。問題是,高科技公司向來男多女少,所提供給 AI 學習的資料自然就男女比例相當不均。AI 也就學會了凡是出現偏向女性名字、嗜好、畢業學校系所等文字的履歷,平均所給的評分都比出現偏向男性等相關文字的履歷還低。

潛藏在資料裡的偏誤造成 AI 預測結果彷彿帶有性別歧視。圖/Envato Elements

但目前科技公司陽盛陰衰,是受到以往鼓勵男性就讀理工、女性就讀人文科系,或男性在外工作女性在家帶小孩等性別刻板偏見所影響。所以 20~30 年來許多人做出各種努力以消除這種性別刻板偏見所帶來的不良影響,政府也努力制定各種政策來消除這種不當的性別偏見,像是求才廣告基本上不能限定性別、公司聘雇員工應該達到一定的性別比例等。因此,訓練 AI 的研究資料一旦隱藏類似前述性別比例不均的現象,訓練出來的 AI 預測結果就彷彿帶有性別歧視,讓人們過往致力消除性別不平等的各種努力都白費了!

其他 AI 應用帶來的倫理與風險

除了演算法偏誤的問題外,第二種可能帶來的倫理問題或風險是 AI 技術已經偏離原先使用目的,例如深偽技術(deepfake)原本用來解決圖片資料量不夠的問題,後來卻被利用在偽造名人性愛影片等。

第三種則是有些 AI 技術或產品本身就可能有善惡兩種用途(dual-use)。例如 AI 人臉辨識技術可用在保護數位裝置的使用者或大樓保全,但也可用來窺探或監控特定個人;無人機可以在農業上幫助農夫播種,但也可作為自動殺人武器;可用來搜尋如何產生毒性最少的藥物合成演算法,也能反過來成為搜尋如何產生毒性最強的藥物合成演算法。

-----廣告,請繼續往下閱讀-----

最後,第四種是演算法設計不良或現有技術限制所導致的問題。在演算法設計不良方面,例如下棋機器人手臂可能因為沒有設計施力回饋或移動受阻暫停等防呆裝置,而造成誤抓人類棋手的手指且弄斷的意外。在現有技術限制方面,道路駕駛的交通標誌在現實中可能時常有老舊或髒汙的情況,儘管對於人類駕駛來說可能不影響判讀,但對於自駕車來說很可能就因此會嚴重誤判,例如無法正確辨識禁止通行標誌而繼續行駛,或是將速限 35 公里誤判成 85 公里等。但前述情況也有可能是自駕車網路、控制權限或物件辨識模型受到惡意攻擊所致。

以上介紹了 AI 常見的四種倫理問題或風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。但人們該如何減少這些倫理問題與風險呢?

培養AI使用倫理與風險的敏銳度

近五、六年來國際組織如聯合國教育科學及文化組織(United Nations Educational, Scientific and Cultural Organization, UNESCO)、歐盟(European Union, EU)、電機電子工程師學會(Institute of Electrical and Electronics Engineers, IEEE)或是國家、國際非營利組織皆紛紛制訂有關 AI 發展的白皮書或倫理指引(ethical guidelines),甚至逐漸朝向法律治理的方向,如歐盟的人工智慧規則草案等。儘管這些文件所提出的倫理價值、原則或行為規範,看似各有不同,但經過這些年的討論與摸索,也逐漸匯聚出一些共識。

「人工智慧科研發展指引」提出三項倫理價值,包含以人為本、永續發展、多元包容。圖/Pexels

臺灣相較於前述國際文件來說,在制訂的時間上比較晚。2019 年由當時的科技部(現改為國科會)制訂「人工智慧科研發展指引」,裡面提出的三項倫理價值以及八項行為指引,基本上涵蓋了前述各種國際 AI 發展指引文件最常提及的內容。所謂三項倫理價值包含以人為本、永續發展、多元包容,行為指引則有共榮共利、安全性、問責與溝通、自主權與控制權、透明性與可追溯性、可解釋性、個人隱私與數據治理、公平性與非歧視性共八項。

-----廣告,請繼續往下閱讀-----

未來當讀者看到又出現哪些 AI 新技術或產品時,不妨試著評估看看是否有符合這三項價值及八項行為指引。若沒有,究竟是哪項不符合?不符合的原因是上述所介紹常見的四種倫理問題或風險的哪一種?若都不是,還有哪些倫理問題或風險過去被忽略了但值得重視?

AI 技術發展日新月進,在日常生活中的應用也愈來愈廣。但考量法律條文有強制性,在制訂時必須相當謹慎,免得動輒得咎,也很可能在不清楚狀況下反而制訂了不當阻礙創新發展的條文;再加上法律制定也必須有一定的穩定性,不能朝令夕改,否則會讓遵守法規者無所適從。因此可以想見,法令規範趕不上新興科技所帶來的問題與風險本來就是常態,而非遇到 AI 科技才有這種情況。

人們若能培養自身對於 AI 倫理問題或風險的敏銳度,便可發揮公民監督或協助政府監督的力量,評估 AI 開發或使用者有無善盡避免傷害特定個人或群體之嫌,逐漸改善 AI 開發者與大眾媒體常過度誇大 AI 功能,但對於可能帶來的倫理問題或風險卻常閃爍其詞或避而不談的不好現象。

本文感謝工業技術研究院產業科技國際策略發展所支持。

  • 〈本文選自《科學月刊》2023 年 2 月號〉
  • 科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。
所有討論 1
科學月刊_96
249 篇文章 ・ 3496 位粉絲
非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。

0

3
3

文字

分享

0
3
3
為什麼「電車難題」那麼難?因為我們同時擁有理性與感性的心!——《欲望分子多巴胺》
臉譜出版_96
・2023/02/04 ・2336字 ・閱讀時間約 4 分鐘

-----廣告,請繼續往下閱讀-----

法蘭克.赫伯特(Frank Herbert)的科幻小說經典《沙丘》(Dune)裡面有一段情節,是要看看主角能不能抑制當下的動物本能,證明自己是人。

老婦人要主角把手伸進黑盒子裡,承受難以想像的痛苦,同時拿一根毒針抵著主角的脖子,如果主角把手抽出來,就刺下毒針結束他的生命。老婦人說:「你知道動物落入陷阱的時候,會咬斷自己的腿逃走吧?但只有動物才會這麼做。人類會待在陷阱裡,忍痛裝死,這樣才能殺死設下陷阱的人,從此消滅族人的威脅。」

能不能抑制住當下的動物本能,證明自己是人?/YouTube

決定情緒表現

某些人天生就比較會壓抑情緒,部分原因,就是每個人的多巴胺受體密度和性質未必相同。

多巴胺受體決定多巴胺分泌的時候,大腦會有怎樣的改變,它跟每個人的基因有關。研究人員測量受試者腦中的多巴胺受體密度(包括受體的數量有多少,以及排列得多緊密),比較受體密度與「情緒疏離程度」(emotional detachment)之間的關係。

-----廣告,請繼續往下閱讀-----

科學家用受試者有多麼願意分享個人資訊、有多麼願意與他人交往,來測量每個人的疏離程度。結果發現,多巴胺的受體密度,與受試者的情緒疏離程度呈正相關。受體密度高的人,情緒也比較疏離。另一項研究中,疏離程度得分最高的人,認為自己「冷漠、孤傲、容易記恨」;疏離程度最低的人,則認為自己「太愛照顧別人,容易被利用」。

情緒的展現與多巴胺受體密度有關。圖/Envato Elements

人們的「疏離程度」大部分介於中間,既不冷漠,也不會天天想要照顧別人,而是依環境決定會怎麼做。當目標在我們身邊,近距離直接接觸,或者當我們關注當下,我們腦中的「當下分子」迴路就會啟動,讓我們變得溫暖而重感情。

但當目標遠在天邊,當下看不到摸不到,或者當我們進行抽象思考或關注未來,腦中的理性層面就會浮現,讓我們變得不近人情。倫理學的「電車問題」,就清楚顯示這兩種思維都在我們腦中:

失控的列車沿著軌道衝向五名勞工,如果什麼都不做,他們必死無疑。不過軌道旁邊剛好有個路人,只要把他推到軌道上讓列車撞死,列車就會減速,五個勞工就能及時逃脫。是你的話,會把路人推下去嗎?

在這種敘述情境中,大部分的受試者都無法把路人推到軌道上,他們會說即使是為了拯救五個人,也無法親手殺死一個人。他們因為腦中的「當下分子」而產生同理心,壓過多巴胺的理性計算。

-----廣告,請繼續往下閱讀-----

故事敘述的方式,讓受試者覺得路人就在自己身邊,把他推下軌道的感覺會留在手上;這時候,「當下分子」就會大量分泌,除了最疏離的人以外,幾乎都無法下手推人。

面對失控的列車,你會如何選擇?圖/Envato Elements

離得夠遠,就殺得下手

不過既然五官感受得到的周圍區域,最容易受到當下分子的影響,那麼如果逐漸遠離現場,當下分子是不是就沒那麼能夠影響決策?當我們離自己得殺的人愈來愈遠,當我們從當下分子掌控的周圍區域,退到多巴胺掌控的外界區域,我們是不是就更願意,或者說更能夠用一個人的性命來交換五個人的性命?

我們可以先從消除身體接觸開始。假設你站在一段距離之外,手裡握著一個軌道開關;電車正衝向五個人,但你只要扳動開關,電車就會駛向另一個軌道,撞死一個人。這時候,你會扳動開關嗎?

接下來請退得更遠。你坐在辦公桌前,控制全國火車的行駛路線。忽然電話鈴聲大作,幾千公里外的鐵路工人說列車失控,即將撞上五個人;你只要按下手邊的開關,就可以切換軌道,但會讓電車撞死一個人。這時候你會按嗎?

-----廣告,請繼續往下閱讀-----

最後我們來到最抽象的情境,一個「當下分子」幾乎無從作用,幾乎只剩下多巴胺的情境:你是鐵路系統工程師,正在設計各種緊急應變方案。你在鐵軌旁邊安裝了攝影機,可以即時蒐集鐵軌上的資訊;而且寫出了一個程式,可以根據當下的狀況即時切換列車軌道。你會讓這個程式在未來遇到電車問題的時候,犧牲一個人去拯救五個人嗎?

你會為了救五人,犧牲一人性命嗎?圖/維基百科

這幾個敘述方式差異很大,但結果其實都一樣:
如果要拯救五個人就得殺掉一個人,如果不想殺人就得放五個人去死。

但不同的場景引發的反應卻不相同,很少人願意親手把人推到鐵軌上;但絕大多數的人都毫不猶豫地讓程式切換鐵軌,盡量減少死亡人數。這就好像我們腦中住著兩顆完全不同的心,其中一顆心只根據理性來判斷;另一顆心則很重感情,即使知道對大局不利,也無法下手殺人。

理性的心只在乎能活下來的人愈多愈好,感性的心卻同時在意其他事情。

多巴胺迴路的活躍程度,大幅影響了我們偏向哪一顆心。

——本文摘自《欲望分子多巴胺:帶來墮落與貪婪、同時激發創意和衝動的賀爾蒙,如何支配人類的情緒、行為及命運》,2023 年 1 月,臉譜出版,未經同意請勿轉載。

-----廣告,請繼續往下閱讀-----
臉譜出版_96
85 篇文章 ・ 255 位粉絲
臉譜出版有著多種樣貌—商業。文學。人文。科普。藝術。生活。希望每個人都能找到他要的書,每本書都能找到讀它的人,讀書可以僅是一種樂趣,甚或一個最尋常的生活習慣。