0

1
0

文字

分享

0
1
0

在電腦時代,學會當「人」更重要——《打開演算法黑箱》書評

臉譜出版_96
・2019/05/07 ・2549字 ・閱讀時間約 5 分鐘 ・SR值 527 ・七年級

-----廣告,請繼續往下閱讀-----

  • 文/張智皓

「在演算法的年代,人類從未如此刻這般的重要。」——弗萊(Hannah Fry)

圖靈(Alan Turing)在 1936 年提出圖靈機(Turing Machine)的基本構想,人類文明揭開了電腦時代的序幕,並在很短時間內為人類生活帶來了劇烈的變化。上一次有這樣的景況,大概是 17 世紀末蒸汽機的發明,帶領人類文明進入工業時代。

進入工業時代,給人帶來便利同時製造難題。圖/pixabay

這兩個時代有類似之處。蒸汽機讓人開始擔心自己被機械取代:生產模式改變,人力不再重要,生產機器和失業人口大量出現。然而,這種困境並沒有維持太久。新技術讓人失業,也拓展了人的想像力,讓各種新興行業與技術應運而生。這些行業和技術促進產業轉型,反而提高了人力需求,讓人類文明變得更加繁盛。此時,我們知道人類變得比以前更重要。

電腦,或者我們說,演算法,就像是現代的蒸氣機,同樣大幅地改變人類生活模式。在本書中,倫敦大學學院(UCL)先進空間分析中心(CASA)的數學家漢娜弗萊從權力、資料、司法、醫療、車輛、犯罪與藝術這七個面向出發,告訴我們演算法已經如何深入我們日常生活中,為我們帶來前所未見的巨大貢獻,並展現出取代人類的企圖心。

科技帶來便利,但人類始終更了解人類。圖/pixabay

更重要的是,弗萊也透過她細膩的觀察,提醒我們:就如同蒸汽機時代的人類沒有被取代一樣,在演算法時代,人類也只會比以前更重要。

人機合作,讓人類的棋藝再創高峰

讓我們從書中一個輕鬆的例子開始。弗萊告訴我們,在 1997 年,西洋棋世界冠軍卡斯帕洛夫(Gary Kasporov)被 IBM 設計的「深藍」擊敗後,他並沒有因此排斥電腦,反之,他創辦了人類與電腦合作的棋賽。卡斯帕洛夫相信,有了電腦的輔助,人類不再需要花時間在棋盤細節的計算上,而是將心思放在整體戰略上,人機合作,能讓人類的棋藝再創高峰。

-----廣告,請繼續往下閱讀-----

這樣的劇情非常類似於 DeepMind 的圍棋軟體 AlphaGo 在 2016 年的創舉。在 AlphaGo 相繼打敗世界冠軍李世乭以及柯潔後,AlphaGo 以及其繼任 AlphaGo Zero 的棋譜變成職業選手們爭相學習的目標。DeepMind 甚至推出 AlphaGo 圍棋教學工具,讓大家學習它的佈局,並進而開發出新的佈局形式。AlphaGo 沒有取代人類棋手,反之,它為圍棋世界注入了新的生命。

兩方交流為圍棋注入新的氛圍。圖/pixabay

演算法無法回答的問題:隱私與安全該如何平衡

接著讓我們談談一個較嚴肅的例子。在本書「犯罪」這一章節中,弗萊提到「臉孔辨識系統」如何對人類產生顯而易見的貢獻。在 2015 年,紐約警察局透過臉孔辨識系統「成功指認了 1700 名嫌犯,並且發動了 900 次逮捕行動。」另外,她也提到從 2010 年以來,紐約州「僅僅針對詐欺和身分盜用就發動了超過四千次逮捕行動。」有了臉孔辨識系統,各大交通運輸管道也可藉恐怖份子資料庫來預防恐怖襲擊(而事實證明這很有用)。

你想要偏向安全,還是隱私?圖/pixabay

作為預防手段,臉孔辨識系統可以有效增進人們生命與財產之安全。但這些好處有其代價。弗萊指出,就連目前全世界最先進的臉孔辨識系統(來自於中國的「騰訊優圖實驗室」),在一百萬張臉孔資料庫的測試中,也只有 83.29% 的辨識率。這在技術上已經令人佩服,但在現實中卻可能釀成大禍。

比方說,2014 年,一位住在丹佛的居民被錯誤辨識為銀行搶匪,並在警察的逮捕過程中「遭受神經損傷、血栓及陰莖折斷。」或許有人會主張,只要技術更好,辨識率更高,問題就解決了。但情況可能沒這麼簡單,辨識率提高的代價是隱私度的下降。試問,我們願意讓「老大哥」看著大家嗎?

-----廣告,請繼續往下閱讀-----

臉孔辨識系統有其好處,有其代價。我們願意讓此系統做到甚麼程度?為了安全,我們願意犧牲多大的隱私?而為了隱私,我們又願意犧牲多少安全?這些問題是演算法無法回答的,只有人類可以,因此,人類只會更重要。

演算法兩難:自駕車該拯救駕駛還是行人?

另外一個嚴肅例子,我想談談「車輛」這一章節中的自動駕駛技術。一旦自動駕駛技術普及,將可以大幅減少人為車禍的發生。而我們知道,現代大多數車禍都源於人為。然而,將駕駛工作交給演算法,也意味著將決策的任務交給演算法。當失控的自駕車面臨的選項是「拯救駕駛,還是拯救行人」時,演算法應該如何行動?

當自動駕駛遭遇電車難題,我們又希望它做出什麼選擇?圖/WIKI

弗萊提到,在 2016 年發表於《科學》期刊(Science)的一篇文章指出,多數人主張應該盡可能的拯救更多人命。然而,當詢問他們自身較願意購買哪一款自駕車時,我們可以從賓士汽車發言人胡苟(Christoph von Hugo)的回應(當被問到賓士車會如何設計時),理解他們的猶豫:「保護駕駛。」

這衝突看起來不可調和,我們一方面希望盡可能拯救人命,另一方面又希望可以保障駕駛的安全(否則我幹嘛買它呢?)。在這樣的衝突中,弗萊指出另外一個可能選項:放棄全自動駕駛,將演算法的目標放在輔佐駕駛人上(比方說,現在已有的「自動緊急煞車」或「自動與前車保持距離」等設計)。換言之,演算法不扮演「司機」,而是扮演「守護者」。我們該做的,是讓演算法配合人類,主動性依然在人類手上,因此,人類只會更重要。

-----廣告,請繼續往下閱讀-----
自動駕駛的衝突難題。圖/pixabay

在《打開演算法黑箱》中,弗萊透過大量有趣的案例,說明演算法如何深入日常的同時,也提醒我們人類的重要性,這是我認為本書最大的優點。新技術的提出值得受到肯定,然而,在肯定其貢獻的同時,背後所付出代價卻往往會被忽略。本書在闡述新技術的同時,也很平衡地展示這些技術背後的代價。

就如同作者一再強調的,她肯定技術所帶來的好處,但我們必須思考如何在新技術所帶來的進步中,保有人類的主動性,或者說,如何在機器年代中當個人。

 

《打開演算法黑箱》書封

本文為《打開演算法黑箱:反噬的AI、走鐘的運算,當演算法出了錯,人類還能控制它嗎?》書評

-----廣告,請繼續往下閱讀-----
文章難易度
臉譜出版_96
88 篇文章 ・ 255 位粉絲
臉譜出版有著多種樣貌—商業。文學。人文。科普。藝術。生活。希望每個人都能找到他要的書,每本書都能找到讀它的人,讀書可以僅是一種樂趣,甚或一個最尋常的生活習慣。

0

1
0

文字

分享

0
1
0
停工即停薪:如何證明你的時間值多少?車禍背後的認知 x 情緒 x 金錢 x 法律大混戰
鳥苷三磷酸 (PanSci Promo)_96
・2026/01/09 ・3351字 ・閱讀時間約 6 分鐘

本文與 PAMO車禍線上律師 合作,泛科學企劃執行

走在台灣的街頭,你是否發現馬路變得越來越「急躁」?滿街穿梭的外送員、分秒必爭的多元計程車,為了拚單量與獎金,每個人都在跟時間賽跑 。與此同時,拜經濟發展所賜,路上的豪車也變多了 。

這場關於速度與金錢的博弈,讓車禍不再只是一場意外,更是一場複雜的經濟算計。PAMO 車禍線上律師施尚宏律師在接受《思想實驗室 video podcast》訪談時指出,我們正處於一個交通生態的轉折點,當「把車當生財工具」的職業駕駛,撞上了「將車視為珍貴資產」的豪車車主,傳統的理賠邏輯往往會失靈 。

在「停工即停薪」(有跑才有錢,沒跑就沒收入)的零工經濟時代,如果運氣不好遇上車禍,我們該如何證明自己的時間價值?又該如何在保險無法覆蓋的灰色地帶中全身而退?

-----廣告,請繼續往下閱讀-----
如果運氣不好遇上車禍,我們該如何證明自己的時間價值?/ 圖片來源: Nano Banana

薪資證明的難題:零工經濟者的「隱形損失」

過去處理車禍理賠,邏輯相對單純:拿出公司的薪資單或扣繳憑單,計算這幾個月的平均薪資,就能算出因傷停工的「薪資損失」。

但在零工經濟時代,這套邏輯卡關了!施尚宏律師指出,許多外送員、自由接案者或是工地打工者,他們的收入往往是領現金,或者分散在多個不同的 App 平台中 。更麻煩的是,零工經濟的特性是「高度變動」,上個月可能拚了 7 萬,這個月休息可能只有 0 元,導致「平均收入」難以定義 。

這時候,律師的角色就不只是法條的背誦者,更像是一名「翻譯」。

施律師解釋「PAMO車禍線上律師的工作是把外送員口中零散的『跑單損失』,轉譯成法官或保險公司聽得懂的法律語言。」 這包括將不同平台(如 Uber、台灣大車隊)的流水帳整合,或是找出過往的接單紀錄來證明當事人的「勞動能力」。即使當下沒有收入(例如學生開學期間),只要能證明過往的接單能力與紀錄,在談判桌上就有籌碼要求合理的「勞動力減損賠償 」。

-----廣告,請繼續往下閱讀-----
PAMO車禍線上律師的工作是把外送員口中零散的『跑單損失』,轉譯成法官或保險公司聽得懂的法律語言 / 圖片來源: Nano Banana

300 萬張罰單背後的僥倖:你的直覺,正在害死你

根據警政署統計,台灣交通違規的第一名常年是「違規停車」,一年可以開出約 300 萬張罰單 。這龐大的數字背後,藏著兩個台灣駕駛人最容易誤判的「直覺陷阱」。

陷阱 A:我在紅線違停,人還在車上,沒撞到也要負責? 許多人認為:「我人就在車上,車子也沒動,甚至是熄火狀態。結果一台機車為了閃避我,自己操作不當摔倒了,這關我什麼事?」

施律師警告,這是一個致命的陷阱。「人在車上」或「車子沒動」在法律上並不是免死金牌 。法律看重的是「因果關係」。只要你的違停行為阻礙了視線或壓縮了車道,導致後方車輛必須閃避而發生事故,你就可能必須背負民事賠償責任,甚至揹上「過失傷害」的刑責 。 

數據會說話: 台灣每年約有 700 件車禍是直接因違規停車導致的 。這 300 萬張罰單背後的僥倖心態,其巨大的代價可能是人命。

-----廣告,請繼續往下閱讀-----

陷阱 B:變換車道沒擦撞,對方自己嚇到摔車也算我的? 另一個常年霸榜的肇事原因是「變換車道不當」 。如果你切換車道時,後方騎士因為嚇到而摔車,但你感覺車身「沒震動、沒碰撞」,能不能直接開走?

答案是:絕對不行。

施律師強調,車禍不以「碰撞」為前提 。只要你的駕駛行為與對方的事故有因果關係,你若直接離開現場,在法律上就構成了「肇事逃逸」。這是一條公訴罪,後果遠比你想像的嚴重。正確的做法永遠是:停下來報警,釐清責任,並保留行車記錄器自保 。

正確的做法永遠是:停下來報警,釐清責任,並保留行車記錄器自保 。/ 圖片來源: Nano Banana

保險不夠賠?豪車時代的「超額算計」

另一個現代駕駛的惡夢,是撞到豪車。這不僅是因為修車費貴,更因為衍生出的「代步費用」驚人。

-----廣告,請繼續往下閱讀-----

施律師舉例,過去撞到車,只要把車修好就沒事。但現在如果撞到一台 BMW 320,車主可能會主張修車的 8 天期間,他需要租一台同等級的 BMW 320 來代步 。以一天租金 4000 元計算,光是代步費就多了 3 萬多塊 。這時候,一般人會發現「全險」竟然不夠用。為什麼?

因為保險公司承擔的是「合理的賠償責任」,他們有內部的數據庫,只願意賠償一般行情的修車費或代步費 。但對方車主可能不這麼想,為了拿到這筆額外的錢,對方可能會採取「以刑逼民」的策略:提告過失傷害,利用刑事訴訟的壓力(背上前科的恐懼),迫使你自掏腰包補足保險公司不願賠償的差額 。

這就是為什麼在全險之外,駕駛人仍需要懂得談判策略,或考慮尋求律師協助,在保險公司與對方的漫天喊價之間,找到一個停損點 。

談判桌的最佳姿態:「溫柔而堅定」最有效?

除了有單據的財損,車禍中最難談判的往往是「精神慰撫金」。施律師直言,這在法律上沒有公式,甚至有點像「開獎」,高度依賴法官的自由心證 。

-----廣告,請繼續往下閱讀-----

雖然保險公司內部有一套簡單的算法(例如醫療費用的 2 到 5 倍),但到了法院,法官會考量雙方的社會地位、傷勢嚴重程度 。在缺乏標準公式的情況下,正確的「態度」能幫您起到加分效果。

施律師建議,在談判桌上最好的姿態是「溫柔而堅定」。有些人會試圖「扮窮」或「裝兇」,這通常會有反效果。特別是面對看過無數案件的保險理賠員,裝兇只會讓對方心裡想著:「進了法院我保證你一毛都拿不到,準備看你笑話」。

相反地,如果你能客氣地溝通,但手中握有完整的接單紀錄、醫療單據,清楚知道自己的底線與權益,這種「堅定」反而能讓談判對手買單,甚至在證明不足的情況下(如外送員的開學期間收入),更願意採信你的主張 。

車禍不只是一場意外,它是認知、情緒、金錢與法律邏輯的總和 。

在這個交通環境日益複雜的時代,無論你是為了生計奔波的職業駕駛,還是天天上路的通勤族,光靠保險或許已經不夠。大部分的車禍其實都是小案子,可能只是賠償 2000 元的輕微擦撞,或是責任不明的糾紛。為了這點錢,要花幾萬塊請律師打官司絕對「不划算」。但當事人往往會因為資訊落差,恐懼於「會不會被告肇逃?」、「會不會留案底?」、「賠償多少才合理?」而整夜睡不著覺 。

-----廣告,請繼續往下閱讀-----

PAMO看準了這個「焦慮商機」, 推出了一種顛覆傳統的解決方案——「年費 1200 元的訂閱制法律服務 」。

這就像是「法律界的 Netflix」或「汽車強制險」的概念。PAMO 的核心邏輯不是「代打」,而是「賦能」。不同於傳統律師收費高昂,PAMO 提倡的是「大腦武裝」,當車禍發生時,線上律師團提供策略,教你怎麼做筆錄、怎麼蒐證、怎麼判斷對方開價合不合理等。

施律師表示,他們的目標是讓客戶在面對不確定的風險時,背後有個軍師,能安心地睡個好覺 。平時保留好收入證明、發生事故時懂得不亂說話、與各方談判時掌握對應策略 。

平時保留好收入證明、發生事故時懂得不亂說話、與各方談判時掌握對應策略 。 / 圖片來源: Nano Banana

從違停的陷阱到訂閱制的解方,我們正處於交通與法律的轉型期。未來,挑戰將更加嚴峻。

-----廣告,請繼續往下閱讀-----

當 AI 與自駕車(Level 4/5)真正上路,一旦發生事故,責任主體將從「駕駛人」轉向「車廠」或「演算法系統」 。屆時,誰該負責?怎麼舉證?

但在那天來臨之前,面對馬路上的豪車、零工騎士與法律陷阱,你選擇相信運氣,還是相信策略? 先「武裝好自己的大腦」,或許才是現代駕駛人最明智的保險。

PAMO車禍線上律師官網:https://pse.is/8juv6k 

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

10
1

文字

分享

0
10
1
群眾監控科技:以 2023 雪梨世界驕傲節為例
胡中行_96
・2023/03/16 ・3422字 ・閱讀時間約 7 分鐘

-----廣告,請繼續往下閱讀-----

COVID-19 疫情趨緩後,各國都敞開大門,迎接國際觀光客。今年雪梨同志狂歡節(Sydney Gay and Lesbian Mardi Gras)的主辦單位,與 InterPride 合作,將活動升級為 2023 雪梨世界驕傲節(Sydney World Pride)。[1]其中最受矚目的年度大遊行,也於 2 月 25 日晚間,重磅回歸 Oxford 和 Flinders 兩街。[2, 3]

今年遊行中,率先登場的女同志團體「Dykes on Bikes」。圖/胡中行攝(CC BY-SA 4.0)
今年遊行的第二個隊伍,是男同志團體「Boys on Bikes」。圖/胡中行攝(CC BY-SA 4.0)

警察的角色

澳洲雪梨一年到頭,觀光活動難以計數。從知名的跨年煙火、國慶典禮、體育賽事、聖誕市集、繽紛雪梨燈光音樂節(Vivid Sydney)到同志狂歡節等,[4]負責維安的警察早已身經百戰,什麼場面都見過了。如果當天鬧事被逮的人數不多,他們有時還會在事後,透過新聞稿嘉勉群眾幾句。[5]雖然新南威爾斯州警察,在1978年拘捕同志運動抗爭者;但誰也沒想到他們後來化敵為友,自 1998 年起,竟每屆都組隊參加遊行。[6, 7]

2023 年面對前所未有的人潮挑戰,他們派出 900 多名員警,並與主辦單位、雪梨市政府、科技保全公司,以及州政府的觀光、交通、消防和急救等部門攜手合作。[2, 7]

曾參與 1978 年抗爭的同志乘車遊行,受到群眾熱烈歡迎。圖/胡中行攝(CC BY-SA 4.0)
新南威爾斯州警察今年的遊行花車。(不含背景右上的彩虹旗。)圖/胡中行攝(CC BY-SA 4.0)

RAMP分析

根據英國曼徹斯特都會大學(Manchester Metropolitan University)G. Keith Still 教授 30 多年的經驗,規劃大型活動時,要從 RAMP 分析(RAMP Analysis)的 4 個面向,評估群眾安全。[8]

-----廣告,請繼續往下閱讀-----
  1. 路線(routes):進入與離開的方向。[8]雪梨同志遊行的隊伍,一般不超出 Oxford 和 Flinders 這兩條街。[2]遊客則必定是從四面八方,逐漸湧入。
  2. 區域(areas):人群聚集的範圍。[8]當天的交通管制,擴及市中心與市郊的幾條主要幹道。[9]
  3. 動向(movement):進場及散場的時間。[8]官網號稱遊行從晚上 6 開始,預計 11 點結束。[10]實際上,觀眾提早幾個小時佔位,正式開幕的時間為晚上 7 點左右,而結束後不少人仍於附近逗留。各街道的交通管制不同,最早從下午 2 點開始,最晚至隔天凌晨 4 點結束。[9]
  4. 群眾(people):對參與群眾的了解。[8]官方預計有 1 萬 2 千 500 人和 200 多輛花車參與遊行。[10]此外,疫情解封以及世界驕傲節的國際觀光效應,勢必帶來人數龐大,而且類型多元的遊客。

此活動行之有年,遊行的路線、群眾聚集的區域,以及周邊交通管制的規劃等,多少都有參考依據。唯一可能比較難以預測的,是今年會增加的遊客。

遊行開始前,Oxford 和 Flinders 街口的人海。圖/胡中行攝(CC BY-SA 4.0)
散場時,尚未撤離的維安、急救、轉播和封街用車輛。圖/胡中行攝(CC BY-SA 4.0)

群眾與手機

為了精準掌握群眾的情形,這次遊行首度依循跨年和燈光音樂節的模式,請動態群眾測量(Dynamic Crowd Measurement)公司在遊行地點周邊,架設了臨時性的監視攝影機與手機偵測器材。[2]

  1. 監視攝影機:配合相應的軟體,從蒐集到的個體表情,例如:開心、中性、難過、生氣等,分析群眾情緒的平均值。同時,測量他們步行移動的速度[2]
  2. 手機訊號:現在幾乎人手一機,由手機通訊用的電磁波,便可推估現場人數。接受《雪梨晨鋒報》(Sydney Morning Herald)訪問的專家認為,不仰賴基地臺的技術,可以避免人數過多時,電信網絡的數據失準。動態群眾測量公司在附近店面,安裝臨時性的偵測器材。[2]
澳洲原住民團體帶了一條蛇來助興。圖/胡中行攝(CC BY-SA 4.0)
技職學校(TAFE)隊伍的大型人偶。圖/胡中行攝(CC BY-SA 4.0)

監控軟體的功能

監視攝影機蒐集到的數據,會被上傳雲端,並呈現於動態群眾測量公司設計的軟體。[11]遊行當天,由主辦單位的工作人員監控,再將必要的資訊報告給警方,以疏導聚眾。[2]下面是該公司官網,所介紹的軟體特色功能:[12]

  1. 地理空間熱區圖(geospatial heatmap):地圖以不同顏色,顯示人群的密集程度,並附帶群眾情緒和人流速度等資訊。[12]
  2. 警報程度指標(alert level indicator):將各區域的危險程度,分級且視覺化,方便監控者一目了然。[12]
  3. 區域監視(zone monitor):群眾密度、情緒和移動速率的警示程度,各區域可以分開設定。[12]
  4. 數據回放(data playback):除了即時監控,已經上傳雲端的數據,也能重新調出來檢視。[12]
  5. 通知管理(notifications manager):客製化群眾密度、情緒平均值,或移動速率等警示,以接收特定的更新資訊通知。[12]
  6. 視覺驗證(visual validator):將即時影像或地理空間熱區圖,與數據並列比較。[12]
https://youtu.be/rTv5ETjEUYk?t=72
動態群眾測量公司的軟體介紹影片,範例地圖是臨近雪梨歌劇院的環形碼頭。影/參考資料11

隱私疑慮

美國喬治城大學法律中心(Georgetown University Law Center)的 Paul Ohm 教授曾說,手機的位置,不該被視為匿名數據。試想一個人幾乎每天在住家與公司之間往返,從手機蒐集到的地理資訊,還真能推測出其身份。[13]所以,參與雪梨同志遊行的群眾,是否有個人隱私外洩的疑慮?主辦單位的發言人表示,他們單純偵測範圍內的手機數量,不包含任何個人化特徵。另外,監視攝影機不具人臉辨識功能,影像也不留紀錄,只儲存數據,因此大家不用擔心。[2]

-----廣告,請繼續往下閱讀-----
雪梨舞蹈團的遊行花車。圖/胡中行攝(CC BY-SA 4.0)
工人團體的遊行花車。圖/胡中行攝(CC BY-SA 4.0)

通宵達旦

遊行吸引 30 萬人聚集,[14]連總理 Anthony Albanese 也親臨現場,成為第一位參加此活動的澳洲現任元首。[3]整晚狂歡不夠,據報相關的官方派對,還續攤到翌日早晨 8 點。[14]遊行當天有 4 人遭到逮捕;而衝突過程中,1 名員警似乎斷了鼻子,另個眼睛瘀青。[7, 15]除此之外,賴在地上阻擋花車的國會議員 Lidia Thorpe,被和平勸離,並登上各大媒體。[16]新南威爾斯州警察在新聞稿中,表示滿意群眾表現,請大家在 2023 雪梨世界驕傲節剩餘的活動裡,繼續關照彼此的安全。[7]

總理 Anthony Albanese 是第一位參加同志遊行的澳洲現任元首。圖/Anthony Albanese on Twitter

  

參考資料

  1. InterPride. ‘Proud to be here – Who we are’. Sydney World Pride 2023. (Accessed on 27 FEB 2023)
  2. Grubb B. (24 FEB 2023) ‘How your phone and mood will be tracked at Mardi Gras’. Sydney Morning Herald.
  3. Anthony Albanese makes history as first sitting PM to march in Sydney’s Mardi Gras parade’. (26 FEB 2023) SBS News.
  4. Destination NSW. ‘Sydney, Australia’. Sydney.com. (Accessed on 26 FEB 2023)
  5. Police pleased with behaviour of revellers during 2022 New Year’s Eve celebrations’. (01 JAN 2023) NSW Police Force.
  6. The Age & Sydney Morning Herald. (24 FEB 2023) ‘Sydney Mardi Gras – from ’78 to World Pride’. YouTube.
  7. 45th Mardi Gras celebrated in high spirits and perfect weather’. (26 FEB 2023) NSW Police Force.
  8. Still GK. (2019) ‘Crowd Science and Crowd Counting’. Impact, 2019(1): 19-23.
  9. InterPride. ‘Sydney Worldpride 2023 Road Closures’. Sydney World Pride 2023.  (Accessed on 01 MAR 2023)
  10. InterPride. ‘Mardi Gras Parade’. Sydney World Pride 2023. (Accessed on 26 FEB 2023)
  11. Shortstories Media. (28 JUL 2022) ‘DCM/Dynamic Crowd Measurement Explainer Video’. YouTube.
  12. DCM Features’. Dynamic Crowd Measurement. (Accessed on 28 FEB 2023)
  13. Thompson SA, Warzel C. (19 DEC 2019) ‘Twelve Million Phones, One Dataset, Zero Privacy’. The New York Times.
  14. Hyland J, Pearson-Jones B. (26 FEB 2023) ‘The morning after! Mardi Gras revellers finally start heading home as the last official party ends at 8am – and there’ll be some sore heads today’. Daily Mail Australia.
  15. Sarkari K, Sciberras A. (26 FEB 2023) ‘Police praise behaviour of Mardi Gras attendees as Anthony Albanese makes history’. 9News.
  16. Hildebrandt C. (27 FEB 2023) ‘Federal senator Lidia Thorpe halts Sydney’s Mardi Gras parade with police protest’. ABC News.
-----廣告,請繼續往下閱讀-----

1

3
1

文字

分享

1
3
1
AI 也會出差錯?使用人工智慧可能帶來的倫理與風險——《科學月刊》
科學月刊_96
・2023/02/19 ・3978字 ・閱讀時間約 8 分鐘

  • 甘偵蓉|清華大學人文社會 AI 應用與發展研究中心博士後研究學者。

Take Home Message

  • Facebook 或 Instagram 的訊息推薦、YouTube 或 Netflix 推薦觀賞影片、掃瞄臉部以解鎖手機,AI 應用早已在我們日常生活中隨處可見。
  • AI 應用中四種常見的倫理和風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。
  • 近年來各國家皆制訂有關 AI 發展的規範,臺灣則在 2019 年制訂「AI 科研發展指引」,期望能改善 AI 發展帶來的問題與風險。

當談到人工智慧(artificial intelligence, AI)、也就是 AI 時,讀者會想到什麼?是多年前由史匹柏(Steven Spielberg)導演的那部《A.I. 人工智慧》(A.I. Artificial Intelligence)中那個一直盼不到人類母愛而令人心碎的機器人小男孩?還是由史密斯(Will Smith)主演的《機械公敵》(I, Robot)裡那些沒遵守機器人三大法則的機器人或中央系統?

《A.I. 人工智慧》(A.I. Artificial Intelligence)電影海報,上映於 2001 年。圖/IMDb

或許未來有一天,人類真的可以設計出如電影中那些像人一樣的 AI 系統或機器人。但目前為止,你常聽到的 AI 其實既很厲害又很不厲害,為什麼呢?厲害的是它下圍棋可贏過世界冠軍,還能夠比放射科技師更快、更準確地辨識 X 光片中疑似病變的細胞;但它不厲害的是,很會下圍棋的 AI 就只能下圍棋,別說不會打牌,連撲克牌是什麼都不知道!而且每次學新事物幾乎都是打掉重練,得不斷做好多考古題才有可能學得會,不像人類通常教幾次就會舉一反三。

不過,即使目前世界上的 AI 都是這種只具備特定功能的「弱 AI」(artificial narrow intelligence, ANI),但已經為這個世界帶來相當大的進步與便利。所以,以下要談的就是 ANI 的倫理與風險。

談到這種只具特定功能的 ANI,讀者知道目前生活周遭有哪些事物有利用 AI 技術嗎?其實 Google 上的搜尋資訊、Facebook 或 Instagram 的訊息推薦、對智慧型手機喊「Siri 現在外面有下雨嗎?」等功能,或是以掃瞄臉部解鎖手機與進入大樓、YouTube 或 Netflix 推薦觀賞影片,甚至是投履歷求職、銀行審核貸款申請等都常用到 AI 技術,它早在我們日常生活中隨處可見。

-----廣告,請繼續往下閱讀-----
AI 技術在日常生活中隨處可見,如 YouTube 推薦觀看影片。圖/Pexels

但也正是如此,讓人們這幾年在使用 AI 時,逐漸發現它可能造成的問題或傷害,以下簡單介紹常見的四種AI應用可能造成的倫理問題或風險。

演算法偏誤

第一種是演算法偏誤(algorithmic bias)。什麼是演算法偏誤?簡單來說就是 AI 在某些群體的判斷準確率或預測結果上總是很差,導致結果可能對於此群體造成系統性的不利。但為何會造成演算法偏誤?常見原因有三項。

第一項原因是,建立 AI 模型的研究資料集有偏誤,在性別、種族、社經地位等特徵上,沒有真實世界的人口分布代表性。例如數位裝置採用 AI 臉部辨識技術解鎖,原本是希望保護個人使用數位裝置的安全性,結果皮膚深的人卻常常遇到辨識失敗而無法解鎖。這通常是因為目前許多 AI 模型都是以機器學習技術設計,而機器學習的主要特性就是從過去人類留下的大量資料中學習;當初提供電腦學習臉部辨識的圖片時,如果多數都是白皮膚而非黑皮膚、多數都是男性的臉而非女性的臉,那麼電腦在學習辨識人臉的準確率上,整體而言辨識男性白人就會比辨識女性黑人要高出許多。

第二項產生演算法偏誤的原因是建立 AI 模型的研究資料集不只有偏誤,還反映現實社會中的性別、種族、社經地位等歧視;例如美國警政單位以過往犯罪資料訓練出獄後犯人再犯風險評估的 AI 模型,那些資料不意外地有色人種的犯罪紀錄遠多於白人犯罪紀錄。然而,那些紀錄也反映美國社會長久以來對於有色人種的歧視,其中包含警察對於有色人種的盤查比例遠高於白人、法院對於有色人種的定罪比例及判刑嚴重程度也遠高於白人、警力通常被派往多黑人與拉丁裔人種居住的窮困社區盤查等。所以根據過往犯罪資料所訓練出來的 AI 模型,不意外地也就會預測有色人種的再犯機率普遍來說比白人高。

-----廣告,請繼續往下閱讀-----

第三項產生演算法偏誤的原因則是 AI 學會了連系統開發者都沒有察覺到,潛藏在資料裡的偏誤。例如科技公司人資部門本來想借助 AI 更有效率地篩選出適合來面試的履歷,所以挑選在該公司任職一定年資且曾升遷二次的員工履歷來訓練 AI 模型。問題是,高科技公司向來男多女少,所提供給 AI 學習的資料自然就男女比例相當不均。AI 也就學會了凡是出現偏向女性名字、嗜好、畢業學校系所等文字的履歷,平均所給的評分都比出現偏向男性等相關文字的履歷還低。

潛藏在資料裡的偏誤造成 AI 預測結果彷彿帶有性別歧視。圖/Envato Elements

但目前科技公司陽盛陰衰,是受到以往鼓勵男性就讀理工、女性就讀人文科系,或男性在外工作女性在家帶小孩等性別刻板偏見所影響。所以 20~30 年來許多人做出各種努力以消除這種性別刻板偏見所帶來的不良影響,政府也努力制定各種政策來消除這種不當的性別偏見,像是求才廣告基本上不能限定性別、公司聘雇員工應該達到一定的性別比例等。因此,訓練 AI 的研究資料一旦隱藏類似前述性別比例不均的現象,訓練出來的 AI 預測結果就彷彿帶有性別歧視,讓人們過往致力消除性別不平等的各種努力都白費了!

其他 AI 應用帶來的倫理與風險

除了演算法偏誤的問題外,第二種可能帶來的倫理問題或風險是 AI 技術已經偏離原先使用目的,例如深偽技術(deepfake)原本用來解決圖片資料量不夠的問題,後來卻被利用在偽造名人性愛影片等。

第三種則是有些 AI 技術或產品本身就可能有善惡兩種用途(dual-use)。例如 AI 人臉辨識技術可用在保護數位裝置的使用者或大樓保全,但也可用來窺探或監控特定個人;無人機可以在農業上幫助農夫播種,但也可作為自動殺人武器;可用來搜尋如何產生毒性最少的藥物合成演算法,也能反過來成為搜尋如何產生毒性最強的藥物合成演算法。

-----廣告,請繼續往下閱讀-----

最後,第四種是演算法設計不良或現有技術限制所導致的問題。在演算法設計不良方面,例如下棋機器人手臂可能因為沒有設計施力回饋或移動受阻暫停等防呆裝置,而造成誤抓人類棋手的手指且弄斷的意外。在現有技術限制方面,道路駕駛的交通標誌在現實中可能時常有老舊或髒汙的情況,儘管對於人類駕駛來說可能不影響判讀,但對於自駕車來說很可能就因此會嚴重誤判,例如無法正確辨識禁止通行標誌而繼續行駛,或是將速限 35 公里誤判成 85 公里等。但前述情況也有可能是自駕車網路、控制權限或物件辨識模型受到惡意攻擊所致。

以上介紹了 AI 常見的四種倫理問題或風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。但人們該如何減少這些倫理問題與風險呢?

培養AI使用倫理與風險的敏銳度

近五、六年來國際組織如聯合國教育科學及文化組織(United Nations Educational, Scientific and Cultural Organization, UNESCO)、歐盟(European Union, EU)、電機電子工程師學會(Institute of Electrical and Electronics Engineers, IEEE)或是國家、國際非營利組織皆紛紛制訂有關 AI 發展的白皮書或倫理指引(ethical guidelines),甚至逐漸朝向法律治理的方向,如歐盟的人工智慧規則草案等。儘管這些文件所提出的倫理價值、原則或行為規範,看似各有不同,但經過這些年的討論與摸索,也逐漸匯聚出一些共識。

「人工智慧科研發展指引」提出三項倫理價值,包含以人為本、永續發展、多元包容。圖/Pexels

臺灣相較於前述國際文件來說,在制訂的時間上比較晚。2019 年由當時的科技部(現改為國科會)制訂「人工智慧科研發展指引」,裡面提出的三項倫理價值以及八項行為指引,基本上涵蓋了前述各種國際 AI 發展指引文件最常提及的內容。所謂三項倫理價值包含以人為本、永續發展、多元包容,行為指引則有共榮共利、安全性、問責與溝通、自主權與控制權、透明性與可追溯性、可解釋性、個人隱私與數據治理、公平性與非歧視性共八項。

-----廣告,請繼續往下閱讀-----

未來當讀者看到又出現哪些 AI 新技術或產品時,不妨試著評估看看是否有符合這三項價值及八項行為指引。若沒有,究竟是哪項不符合?不符合的原因是上述所介紹常見的四種倫理問題或風險的哪一種?若都不是,還有哪些倫理問題或風險過去被忽略了但值得重視?

AI 技術發展日新月進,在日常生活中的應用也愈來愈廣。但考量法律條文有強制性,在制訂時必須相當謹慎,免得動輒得咎,也很可能在不清楚狀況下反而制訂了不當阻礙創新發展的條文;再加上法律制定也必須有一定的穩定性,不能朝令夕改,否則會讓遵守法規者無所適從。因此可以想見,法令規範趕不上新興科技所帶來的問題與風險本來就是常態,而非遇到 AI 科技才有這種情況。

人們若能培養自身對於 AI 倫理問題或風險的敏銳度,便可發揮公民監督或協助政府監督的力量,評估 AI 開發或使用者有無善盡避免傷害特定個人或群體之嫌,逐漸改善 AI 開發者與大眾媒體常過度誇大 AI 功能,但對於可能帶來的倫理問題或風險卻常閃爍其詞或避而不談的不好現象。

本文感謝工業技術研究院產業科技國際策略發展所支持。

  • 〈本文選自《科學月刊》2023 年 2 月號〉
  • 科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。
-----廣告,請繼續往下閱讀-----
所有討論 1