Loading [MathJax]/extensions/tex2jax.js

0

1
0

文字

分享

0
1
0

美國司法部如何追殺資訊自由化推手 Aaron Swartz

洪朝貴
・2013/01/16 ・3761字 ・閱讀時間約 7 分鐘 ・SR值 557 ・八年級

14 歲的 Aaron Swartz 跟 Lawrence Lessig 聊天
14 歲的 Aaron Swartz 跟 Lawrence Lessig 聊天

Aaron Swartz 在 14 歲時就參與建置 RSS 技術。 他長年投入資訊自由化運動, 反對封鎖知識。 2011 年他在 MIT 大量下載 JSTOR 的學術期刊, 被美國聯邦政府起訴; 上週五 (1/11) 年僅 26 歲的他在家中自殺身亡。 詳見 T 客邦的中文報導 「網路神童、RSS 規格制定者、Reddit 網站創辦人 Aaron Swartz 自殺身亡」Aaron Swartz 之死促使學界反省, Anonymous 駭垮 MIT 網站。 本文蒐集大量英文連結, 將 MIT 下載事件及美國司法部的追殺過程用中文摘要下來, 讓華人世界知道這位資訊自由化勇士被迫害的真相。 [1/16 補充: Inside 這篇 「早逝的天才,網路神童與資訊自由鬥士——Aaron Swartz」 更詳盡, 包含 Guerilla Open Access Manifesto 宣言中譯, 大推!]

Aaron Swartz 在哈佛倫理中心工作。 他協助 Shireen Barday 研究一個有趣的議題: 企業金主對研究機構和學術論文有多大的影響力? (最下面 update) 他從 2010 年開始來到 MIT 下載論文。 MIT 的校園網路本來就是一個很開放的空間: 任何訪客不需要密碼即可自由登入。 MIT 的網路安全人員明確表示: 這是 MIT 的校園開放精神使然, 並不是人員疏失所造成的資訊安全漏洞。 訪客連線時甚至不會看到任何使用需知 (例如 「禁止大量下載資料」)。 在 MIT 校園內的 18.xx.xx.xx ip 網段內, JSTOR 的學術論文本來就允許任何人下載。 我們在許多網站上經常會看到亂數產生的內嵌文數字圖型, 用來確認與網頁互動的是人類而不是機器人, 這個機制稱為 CAPTCHA。 JSTOR 的論文下載點甚至連 CAPTCHA 機制都沒有 — 這也意謂著論文著作權所有人 JSTOR 本來就無意禁止師生訪客大量下載論文。 Aaron 只是寫了一個批次檔直接砍站 (貴哥常幹這種事; 盡量把下載範圍控制在少數有可能閱讀的頁面)。 到這裡為止, Aaron 的行為頂多只能說是不體貼而已, 完全談不上 「駭入系統」, 更沒有違反任何法律或使用者條款。 Aaron 了解 JSTOR 論文系統下載限制 (只是檢查 ip 位址) 之後, 便進入校園內一處沒有門禁的機房。 支持 Aaron 的人士多半認為: 就這點而言, 他是否觸犯 「擅闖私有財產」 之類的法律, 有待討論。 不過在這個機房內, 同時還有一位遊民存放他的私人物品, 並沒有跟 Aaron 一樣遭到司法追殺。 2011 年 1 月間, Aaron 把他的宏碁筆電直接用有線網路連上交換器, 遮掩起來, 放在那裡下載好幾天。 以上請見網路犯罪專家 Alex Stamos 的部落格 The Truth about Aaron Swartz’s “Crime” 以及 起訴書。 Alex Stamos 是本案當中被告方的專家證人, 有接觸到第一手的資料, 原本保持沉默; 因為 Aaron 自殺、 案件了結, 所以將事實公諸於世。

照 Stamos 以及眾多連結的說法看來, 這份起訴書看來有多處描述或者根本與事實不符、 或者純屬臆測: 入侵禁地、 規避 MIT 與 JSTOR 的 「防止大量下載機制」、 意圖散佈 JSTOR 所擁有的論文的說法都大有問題。 創用 CC 的發明人、 「誰綁架了文化創意」 一書的作者、 也是哈佛大學法學教授的 Lawrence Lessig (照片左側的大人) 在 2011 年七月接受採訪時 表示

起訴書只是一項指控。 … 它只是片面之辭。

就算政府的指控屬實, 我也不確定這些行為就構成犯罪。

另一方面, 我也認為 (Aaron 的) 這項行為不符合道德標準。

但我們不禁要問: 怎樣才是合理的懲罰? 我不相信 Aaron 的舉動是為了個人利益。 跟華爾街 (他們又得到了什麼樣的懲罰呢?) 大異其趣的是: 這個行為的目的並非在圖利個人。

但不知為什麼, 美國司法部麻州檢查長 Carmen Ortiz 針對此事起訴 Aaron (請見 紐約時報 Nick Bilton 的報導 以及上述起訴書)。 Aaron 被起訴後, 把含有論文的硬碟交給著作權人 JSTOR, 並且承諾不會散佈檔案。 JSTOR ( 發新聞稿 表示: 「要不要起訴 Swartz, 是政府的決定。 我們已經確保 Swartz 所拿到的資料不會外流了, 所以如先前所述, 我們沒有興趣繼續追究法律責任。」 ( 紐約時報報導) 最詭異的是: Carmen Ortiz 卻仍執意起訴 Aaron; 美國司法部 官網新聞稿 甚至語帶威脅地說: 「如果罪名成立, Swartz 將面臨最高 35 年的刑期」。 MIT 則一直沒有表達立場, 而這也給了司法部一點薄弱的理由得以繼續追殺 Aaron。

-----廣告,請繼續往下閱讀-----

司法部的錯誤與威脅並非一時的錯誤, 而是蓄意的迫害。 一開始 Aaron 被起訴時, 罪名有四項; 到了 2012 年九月, 罪名增加到十三項。 不久前, Aaron 的律師 Elliot Peters 與負責起訴 Aaron 的助理檢查官 Stephen Heymann 商談, 但 Heymann 堅持要 Aaron 認罪, 這樣或許可以將求刑年數降到六至八個月。 如果不認罪的話, 刑期可能高達五十年, 罰金高達四百萬美金。 明明沒有犯法卻要被迫認罪, Aaron 當然拒絕。 沒幾天後, 他就自殺了。 Stephen Heymann 沒有回應華爾街日報對於 Aaron 自殺事件的詢問。 不過 Aaron 最早的律師 Andy Good 當初提醒 Heymann 說 Aaron 有自殺危險的時候, Heymann 倒是一派輕鬆地回答: 「了解。 我們會把他關起來。」。 代表司法部的 Heymann 為什麼要枉顧事實, 對於一個欠缺犯罪事實、 欠缺受害者的案件, 對於一個具有自殺傾向的 「嫌疑犯」 窮追猛打? Peters 認為他想藉著本案出名。 Heymann 過去較知名的是一個侵犯隱私的事件: 他曾經 主張哈佛大學應該監控校園網路活動; 他 認為 延申解釋既有的法律就足以支持這樣的做法, 不需要另外尋求法律依據。 哈佛大學認為這會侵犯隱私, 所以拒絕。

Aaron 自殺後, Lessig 又寫了一篇 「檢察官霸凌」

(表示不認同 Aaron 的行為, 認為他的行為如果不是遊走法律邊緣, 至少也是道德上有瑕疵。 略。) Aaron 和我為了相同的理念而奮鬥, 不過他的手段和我不同。 …

從一開始, 政府就極盡所能、 用極度荒謬的方式描述 Aaron 的行為。 政府告訴我們: Aaron 所 “竊取” 的 “財產” “價值數百萬美元”, 製造一種氛圍, 好像他的目標就是為了錢一樣。 不過, 會認為一堆學術論文可以賣錢的人, 不是白癡就是在說謊。

(描述 Aaron 的歷史, 根本就不是追逐金錢的人。 略。)

別忘了: 在我們所生存的世界裡, 一手打造金融危機的這些人經常在白宮餐會, 其中就算有些人接受審判, 他們也甚至不需要承認自己做錯事, 更遑論被視為重案罪犯。

在這樣的一個世界裡, 這個政府必須回答的問題是: 那麼像 Aaron 這樣的行為為什麼必須被視為是重案? 因為在過去十八個月當中, 他抗拒的就是承認自己是個重案罪犯 (felon), 而他的抗拒也迫使他必須花百萬美元打官司、 散盡家財。 他卻又不願意公開向我們表示他需要錢打官司 — 以免觸怒地區法院法官。 雖然結局是千不該萬不該他媽的令人難過, 但我可以理解當這個天資聰穎卻飽受困擾的孩子無助地面對這場戰爭的時候, 會覺得一了百了是個合理的選項。

關五十年。 我們的政府這麼要求。 我們是該走出這個年代 「我是正義所以我可以毀了你」 的態度。 這要從一個詞開始: 羞恥心。

一個詞, 跟無盡的眼淚。

Aaron 死訊傳開之後, 網友群起抗議。 有人在 twitter 上發起公民不服從運動: 呼籲學者不管著作權、 直接將自己的論文 pdf 檔上傳、 公佈網址; 各地學者熱烈響應 藉此紀念 Aaron Swartz。 (也請搜尋 pdftribute) MIT 表示: 將調查自身在此案當中所扮演的角色。 一月12日支持者至白宮網站請願, 要求撤除檢查長 Carmen Ortiz 的職務

一個不懂比例原則的起訴人、 一個經常濫用不公且過重的刑罰來逼迫被告認罪 — 不論他其實有沒有犯罪 — 的起訴人, 任何人如果跟她的生命有交集, 都會遭到生命與自由的危險。

三天之內, 已經達到兩萬五千人的門檻, 白宮必須回應。

-----廣告,請繼續往下閱讀-----

[1/17 補充] Thinkprogress 指出: 殺人犯、 銀行搶犯、 協助恐怖組織開發毀滅性武器、 販奴、 性虐待兒童以販售色情影像、 … 這些罪犯所面臨的刑期都比 Aaron Swartz 要輕。 臺裔的哥倫比亞大學法學教授 Tim Wu 深刻分析

一個社會如何待天才怪咖, 這可以作為衡量這個社會的標準。 從這個角度看, 我們的社會完全失敗。

1970 年代, Steve Jobs 跟 Steve Wozniak 所犯下的罪行類似 Aaron Swartz, 但比他造成更大的經濟傷害。 他們駭進 AT&T 的電話系統, 不只打了免費的電話, 還真的造出藍色的盒子拿去賣錢。 他們的指導者 (也是寫出文書處理軟體的第一人) John Draper 被關了幾個月, 但是 Jobs 跟 Wozniak 都沒事。 後來他們不玩了, 改發明電腦。 天才總是走在邊緣。

如果當初是 Carmen Ortiz 來辦他們的案子, 那麼今天我們就不會有蘋果電腦了。

我們今日的法律無所不管, 只要是有活力 (vigor) 有想法 (spirit) 的人都免不了會觸犯到。 基本上, 在今日的美國法律之下, 任何一個有趣的人都會是重刑犯。

Aaron Swartz 這個熱血怪咖原本也許有一天會成為偉大的發明家。 不過現在我們永遠沒有機會知道答案了。

許多網路大咖撰文對 Aaron Swartz 致敬。 下一步, 開始出現 語言戰爭學者的冷漠 等等反省, 後續可能還會引發更多餘震。 但我只能摘要到這裡。 您在我的文章當中看到哪些值得讓後世知道的事嗎? 請再次搜尋/查證/確認/引用更有公信力的報導, 並且在 維基百科頁面上 補幾句。

死有輕於鴻毛, 有重於泰山。 他的自殺當然令人感到難過與遺憾, 也不值得學習; 但誰知道呢, 或許他現在正在帷幕的另一面, 慶祝、 欣賞他自己短暫而精采的一生如此戲劇化而震撼地畫下句點, 因而照亮了黑暗的美國司法體系和無感的學術界, 還感動了各行各業許多本來不關心資訊自由化、 不關心智慧財產走火入魔的人。 謹以這篇文章向 Aaron Swartz 致敬。 (是的, 如果您注意到小格流量從昨天開始突然爆增二十倍, 就是因為 「學者的智慧, 期刊的財產」 那篇舊文被 Aaron 之死的震波打到。)

(本文原刊載於 資訊人權貴ㄓ疑)

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度
洪朝貴
47 篇文章 ・ 1 位粉絲

0

1
0

文字

分享

0
1
0
ECU: 汽車大腦的演化與挑戰
鳥苷三磷酸 (PanSci Promo)_96
・2025/07/02 ・3793字 ・閱讀時間約 7 分鐘

-----廣告,請繼續往下閱讀-----

本文與 威力暘電子 合作,泛科學企劃執行。

想像一下,當你每天啟動汽車時,啟動的不再只是一台車,而是一百台電腦同步運作。但如果這些「電腦」突然集體當機,後果會有多嚴重?方向盤可能瞬間失靈,安全氣囊無法啟動,整台車就像失控的高科技廢鐵。這樣的「系統崩潰」風險並非誇張劇情,而是真實存在於你我日常的駕駛過程中。

今天,我們將深入探討汽車電子系統「逆天改運」的科學奧秘。究竟,汽車的「大腦」—電子控制單元(ECU),是如何從單一功能,暴增至上百個獨立系統?而全球頂尖的工程師們,又為何正傾盡全力,試圖將這些複雜的系統「砍掉重練」、整合優化?

第一顆「汽車大腦」的誕生

時間回到 1980 年代,當時的汽車工程師們面臨一項重要任務:如何把汽油引擎的每一滴燃油都壓榨出最大動力?「省油即省錢」是放諸四海皆準的道理。他們發現,關鍵其實潛藏在一個微小到幾乎難以察覺的瞬間:火星塞的點火時機,也就是「點火正時」。

如果能把點火的精準度控制在「兩毫秒」以內,這大約是你眨眼時間的百分之一到千分之一!引擎效率就能提升整整一成!這不僅意味著車子開起來更順暢,還能直接省下一成的油耗。那麼,要如何跨過這道門檻?答案就是:「電腦」的加入!

-----廣告,請繼續往下閱讀-----

工程師們引入了「微控制器」(Microcontroller),你可以把它想像成一顆專注於特定任務的迷你電腦晶片。它能即時讀取引擎轉速、進氣壓力、油門深度、甚至異常爆震等各種感測器的訊號。透過內建的演算法,在千分之一秒、甚至微秒等級的時間內,精準計算出最佳的點火角度,並立刻執行。

從此,引擎的性能表現大躍進,油耗也更漂亮。這正是汽車電子控制單元(ECU)的始祖—專門負責點火的「引擎控制單元」(Engine Control Unit)。

汽車電子控制單元的始祖—專門負責點火的「引擎控制單元」(Engine Control Unit)/ 圖片來源:shutterstock

ECU 的失控暴增與甜蜜的負荷

第一顆 ECU 的成功,在 1980 年代後期點燃了工程師們的想像:「這 ECU 這麼好用,其他地方是不是也能用?」於是,ECU 的應用範圍不再僅限於點火,燃油噴射量、怠速穩定性、變速箱換檔平順度、ABS 防鎖死煞車,甚至安全氣囊的引爆時機……各種功能都交給專屬的 ECU 負責 。

然而,問題來了:這麼多「小電腦」,它們之間該如何有效溝通?

-----廣告,請繼續往下閱讀-----

為了解決這個問題,1986 年,德國的博世(Bosch)公司推出了一項劃時代的發明:控制器區域網路(CAN Bus)。你可以將它想像成一條專為 ECU 打造的「神經網路」。各個 ECU 只需連接到這條共用的線路上,就能將訊息「廣播」給其他單元。

更重要的是,CAN Bus 還具備「優先通行」機制。例如,煞車指令或安全氣囊引爆訊號這類攸關人命的重要訊息,絕對能搶先通過,避免因資訊堵塞而延誤。儘管 CAN Bus 解決了 ECU 之間的溝通問題,但每顆 ECU 依然需要獨立的電源線、接地線,並連接各種感測器和致動器。結果就是,一輛汽車的電線總長度可能達到 2 到 4 公里,總重量更高達 50 到 60 公斤,等同於憑空多載了一位乘客的重量。

另一方面,大量的 ECU 與錯綜複雜的線路,也讓「電子故障」開始頻繁登上汽車召回原因的榜首。更別提這些密密麻麻的線束,簡直是設計師和維修技師的惡夢。要檢修這些電子故障,無疑讓人一個頭兩個大。

大量的 ECU 與錯綜複雜的線路,也讓「電子故障」開始頻繁登上汽車召回原因的榜首。/圖片來源:shutterstock

汽車電子革命:從「百腦亂舞」到集中治理

到了2010年代,汽車電子架構迎來一場大改革,「分區架構(Zonal Architecture)」搭配「中央高效能運算(HPC)」逐漸成為主流。簡單來說,這就像在車內建立「地方政府+中央政府」的管理系統。

-----廣告,請繼續往下閱讀-----

可以想像,整輛車被劃分為幾個大型區域,像是車頭、車尾、車身兩側與駕駛艙,就像數個「大都會」。每個區域控制單元(ZCU)就像「市政府」,負責收集該區所有的感測器訊號、初步處理與整合,並直接驅動該區的馬達、燈光等致動器。區域先自理,就不必大小事都等中央拍板。

而「中央政府」則由車用高效能運算平台(HPC)擔任,統籌負責更複雜的運算任務,例如先進駕駛輔助系統(ADAS)所需的環境感知、物體辨識,或是車載娛樂系統、導航功能,甚至是未來自動駕駛的決策,通通交由車輛正中央的這顆「超級大腦」執行。

乘著這波汽車電子架構的轉型浪潮中, 2008 年成立的台灣本土企業威力暘電子,便精準地切入了這個趨勢,致力於開發整合 ECU 與區域控制器(Domain Controller)功能的模組化平台。他們專精於開發電子排檔、多功能方向盤等各式汽車電子控制模組。為了確保各部件之間的溝通順暢,威力暘提供的解決方案,就像是將好幾個「分區管理員」的職責,甚至一部分「超級大腦」的功能,都整合到一個更強大的硬體平台上。

這些模組不僅擁有強大的晶片運算能力,可同時支援 ADAS 與車載娛樂,還能兼容多種通訊協定,大幅簡化車內網路架構。如此一來,車廠在追求輕量化和高效率的同時,也能顧及穩定性與安全性。

-----廣告,請繼續往下閱讀-----
2008 年威力暘電子致力於開發整合 ECU 與區域控制器(Domain Controller)功能的模組化平台 /圖片來源:shutterstock

萬無一失的「汽車大腦」:威力暘的四大策略

然而,「做出來」與「做好」之間,還是有差別。要如何確保這顆集結所有功能的「汽車大腦」不出錯?具體來說,威力暘電子憑藉以下四大策略,築起其產品的可靠性與安全性:

  1. AUTOSAR : 導入開放且標準化的汽車軟體架構 AUTOSAR。分為應用層、運行環境層(RTE)和基礎軟體層(BSW)。就像在玩「樂高積木」,ECU 開發者能靈活組合模組,專注在核心功能開發,從根本上提升軟體的穩定性和可靠性。
  2. V-Model 開發流程:這是一種強調嚴謹、能在早期發現錯誤的軟體開發流程。就像打勾 V 字形般,左側從上而下逐步執行,右側則由下而上層層檢驗,確保每個階段的安全要求都確實落實。
  3. 基於模型的設計 MBD(Model-Based Design) 威力暘的工程師們會利用 MatLab®/Simulink® 等工具,把整個 ECU 要控制的系統(如煞車),用數學模型搭建起來,然後在虛擬環境中進行大量的模擬和測試。這等於在實體 ECU 誕生前,就能在「數位雙生」世界中反覆演練、預先排除設計缺陷,,並驗證安全機制是否有效。
  4. Automotive SPICE (ASPICE) : ASPICE 是國際公認的汽車軟體「品質管理系統」,它不直接評估最終 ECU 產品本身的安全性,而是深入檢視團隊在軟體開發的「整個過程」,也就是「方法論」和「管理紀律」是否夠成熟、夠系統化,並只根據數據來評估品質。

既然 ECU 掌管了整輛車的運作,其能否正常運作,自然被視為最優先項目。為此,威力暘嚴格遵循汽車業中一本堪稱「安全聖經」的國際標準:ISO 26262。這套國際標準可視為一本針對汽車電子電氣系統(特別是 ECU)的「超嚴格品管手冊」和「開發流程指南」,從概念、設計、測試到生產和報廢,都詳細規範了每個安全要求和驗證方法,唯一目標就是把任何潛在風險降到最低

有了上述這四項策略,威力暘確保其產品從設計、生產到交付都符合嚴苛的安全標準,才能通過 ISO 26262 的嚴格檢驗。

然而,ECU 的演進並未就此停下腳步。當ECU 的數量開始精簡,「大腦」變得更集中、更強大後,汽車產業又迎來了新一波革命:「軟體定義汽車」(Software-Defined Vehicle, SDV)。

-----廣告,請繼續往下閱讀-----

軟體定義汽車 SDV:你的愛車也能「升級」!

未來的汽車,會越來越像你手中的智慧型手機。過去,車輛功能在出廠時幾乎就「定終身」,想升級?多半只能換車。但在軟體定義汽車(SDV)時代,汽車將搖身一變成為具備強大運算能力與高速網路連線的「行動伺服器」,能夠「二次覺醒」、不斷升級。透過 OTA(Over-the-Air)技術,車廠能像推送 App 更新一樣,遠端傳送新功能、性能優化或安全修補包到你的車上。

不過,這種美好願景也將帶來全新的挑戰:資安風險。當汽車連上網路,就等於向駭客敞開潛在的攻擊入口。如果車上的 ECU 或雲端伺服器被駭,輕則個資外洩,重則車輛被遠端鎖定或惡意操控。為了打造安全的 SDV,業界必須遵循像 ISO 21434 這樣的車用資安標準。

威力暘電子運用前面提到的四大核心策略,確保自家產品能符合從 ISO 26262 到 ISO 21434 的國際認證。從品質管理、軟體開發流程,到安全認證,這些努力,讓威力暘的模組擁有最高的網路與功能安全。他們的產品不僅展現「台灣智造」的彈性與創新,也擁有與國際大廠比肩的「車規級可靠度」。憑藉這些實力,威力暘已成功打進日本 YAMAHA、Toyota,以及歐美 ZF、Autoliv 等全球一線供應鏈,更成為 DENSO 在台灣少數核准的控制模組夥伴,以商用車熱系統專案成功打入日系核心供應鏈,並自 2025 年起與 DENSO 共同展開平台化量產,驗證其流程與品質。

毫無疑問,未來車輛將有更多運作交由電腦與 AI 判斷,交由電腦判斷,比交由人類駕駛還要安全的那一天,離我們不遠了。而人類的角色,將從操作者轉為監督者,負責在故障或斷網時擔任最後的保險。透過科技讓車子更聰明、更安全,人類甘願當一個「最弱兵器」,其實也不錯!

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

1

2
2

文字

分享

1
2
2
讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員
研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

-----廣告,請繼續往下閱讀-----
所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3664 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

2
10

文字

分享

0
2
10
擁有「控制感」有助於維持心理健康?無助導致的憂鬱又是怎麼來的?——《選擇的弔詭》
一起來
・2023/12/31 ・3327字 ・閱讀時間約 6 分鐘

習得無助、控制感,以及憂鬱

提過塞利格曼等人發現的「習得無助」現象,他們進行了一系列動物基本學習歷程的實驗,訓練動物跳過柵欄以避開腳下的電擊。動物通常很快就能學會怎麼做,但有一組動物,因為先前經歷過一連串無法躲避的電擊,所以始終都學不會,牠們甚至放棄嘗試,只是待在原地乖乖接受電擊,而從不試著跳過柵欄。研究者的解釋是,當動物遭受自己無法控制的電擊,就會學到不管怎麼做都無濟於事,這樣的習得無助感會轉移到新情境,即使牠們能夠控制這個新情境,還是會放棄嘗試。

塞利格曼深入研究習得無助現象之後,驚訝地發現,這些無助的動物跟憂鬱症患者有許多共同點,尤其是兩者的消極心態,憂鬱症患者有時連「今天要穿什麼衣服」這樣的小事都力不從心。塞利格曼推論,至少有部分憂鬱症患者是因為經歷過一次強烈的失控感,於是開始相信自己對任何事都無能為力,並認為這種無助感會一直持續出現在各種情境。根據塞利格曼的假設,擁有控制感對於心理健康至關重要。

五十多年前,一項研究以三個月大的嬰兒為受試者,凸顯了控制感的重要性。研究者將嬰兒分成兩組,A 組是有控制權的嬰兒,他們躺在嬰兒床上,頭靠著枕頭,床的上方倒掛著一把半透明的傘,裡面用彈簧黏著幾隻動物玩偶,如果嬰兒轉一下頭,傘裡的燈就會亮起,嬰兒就可以看到那些玩偶在「跳舞」,但一會兒燈就熄滅了。當 A 組嬰兒碰巧轉頭,讓傘裡的燈亮起並看到玩偶,他們就會表現出好奇、開心和興奮的樣子,而且很快就學會利用轉頭來控制玩偶的出現,然後一次又一次重複這個動作,看起來一直都很開心。B 組嬰兒則沒有控制權,只有在 A 組轉頭時,他們床上的燈也跟著亮起,才可以「順便」看到玩偶, 所以 B 組看到玩偶的次數和時間都跟 A 組一樣多,但他們只有在一開始表現得跟 A 組一樣開心,然後很快就因為適應而失去興趣。

研究使用玩偶測試後發現嬰兒的快樂似乎源自於「控制感」。圖/envato

研究者從兩組嬰兒的反應差異,得到下列結論:讓嬰兒一直很開心的原因,並不是會跳舞的動物玩偶,而是控制感。A 組嬰兒之所以對著玩偶咯咯笑個不停,是因為他們似乎知道是自己讓這一切發生,「是我幹的好事,很棒吧,而且只要我想要,隨時都可以再來一次」。B 組嬰兒雖然什麼都不用做就可以看到玩偶,但是卻沒有體驗到這種令人興奮的控制感。

-----廣告,請繼續往下閱讀-----

小嬰兒幾乎無法控制任何事物,既不能任意靠近自己想要的東西,也無法離討厭的東西遠遠地。他們無法靈活控制自己的手,所以抓取或操作物品都很吃力。他們還會無預警地被被東戳戳、西捏捏,或是被抱起又放下。小嬰兒的世界就是只能被動讓事情發生在自己身上,任由別人擺佈。或許正是基於這個原因,當他們偶然發現自己可以控制那麼一點小事, 就異常在意和興奮。

另一項研究以生命的另一端——老年人為受試者,也戲劇化地證明了「控制感」對於幸福快樂的重要性。研究者告訴 A 組養老院的住民必須為自己負責、照顧好自己;B 組住民則被告知他們的一切生活起居都由工作人員打理。此外,A 組每天都要決定一些簡單的事,並照顧一盆植物;B 組則沒有任何決定權,他們的植物也由工作人員照顧。結果,A 組老人(對自己的生活有一定的控制權)比 B 組(沒有控制權)更有活力、更靈敏,主觀幸福感也更高。最引人注目的是,A 組的平均壽命比 B 組多好幾年。可見,從出生到死亡,人都需要擁有對生活的掌控權。 

從出生到死亡,人都需要擁有對生活的掌控權。 圖/envato

無助感、憂鬱和歸因風格

塞利格曼的「無助-憂鬱理論」仍然受到質疑,最大的問題是,並非每個失去掌控感的人都會陷入憂鬱。因此,塞利格曼和同事在 1978 年修正了這一理論,並指出在無助感和憂鬱之間,還存在另一個重要的心理歷程。根據修正後的新理論,人在失敗和失去掌控感之後,會問自己為什麼,像是「為什麼他要跟我分手?」「為什麼我被刷下來?」「為什麼我沒有談成那筆生意?」「為什麼我的成績這麼爛?」。換句話說,人會尋找失敗的原因。

塞利格曼等人認為,人對事情的解釋——即歸因風格(attributional style)大致有兩種,每種風格都傾向接受特定類型的原因,而這些原因不一定跟實際情形有關。根據歸因風格的特性,造成失敗的原因可以分成三個向度:全面或特定、長期或短暫、內在或外在。

-----廣告,請繼續往下閱讀-----

假設你去應徵一份行銷業務的職缺,卻沒被錄取,你在分析自己為什麼會失敗時,下面是一些可能的原因: 

全面:我的自傳和履歷都寫得不好,面試時又很緊張,看來不管找什麼工作都不會被錄取了。

特定:我對那家公司的產品類型不太了解,我得多做一些功課,面試時才能脫穎而出。

長期:我的個性不是很主動積極,也無法擔負責任,這份工作根本不適合我。

短暫:我最近感冒,好幾天沒睡好,面試時狀態不佳。

內在:原本應該可以順利得到這份工作,是我自己搞砸了。

-----廣告,請繼續往下閱讀-----

外在:他們應該早就內定好了,找人去面試只是做做樣子,大家都是去陪榜的。

如果你用特定、短暫、外在因素去解釋自己為何沒被錄取,那麼你對下次找工作的預期會是什麼?你也許會想:如果去應徵自己熟悉的領域,並且保持睡眠充足,自己也更主動機靈一點,而且面試沒有黑箱作業,一切就會很順利。換句話說,這次的失敗經驗不太會影響下次找工作的表現。

反之,假設你用全面、長期、內在角度看待自己的失敗,認為自己的履歷毫不起眼, 面試時老是緊張得說不出話,而且個性太被動,別人都比自己更適合這份工作,那麼你預期的未來就會黯淡無光,你不但沒得到這份工作,接下來要找任何工作都會很困難。

修正後的「無助-憂鬱理論」認為,如果用全面、長期、內在因素去解釋失敗,那麼由失敗或失去掌控所引發的無助感才會導致憂鬱,因為在這種情況下,人有充分理由預期自己將不斷遭遇失敗。既然註定會失敗,那麼每天起床、換好衣服,繼續應徵下一份工作又有什麼意義? 

如果用全面、長期、內在因素去解釋失敗,人有充分理由預期自己將不斷遭遇失敗,那麼由失敗或失去掌控所引發的無助感會導致憂鬱。圖/envato

對上述理論的檢驗已得到令人矚目的結果。人確實會表現出不同的歸因風格,「樂觀者」會將自己的成功解釋為全面、長期、內在因素所致,而認為失敗是由特定、短暫、外在因素造成。「悲觀者」則恰好相反。如果兩個人得到同樣的分數,樂觀者會說「我得了 A」 或「她給我成績打 C」,悲觀者卻說「她給我打 A」或「我得了 C」,因此悲觀者更可能陷入憂鬱。此外,從一個人的歸因風格也可以預測他未來遭受失敗時是否會憂鬱。如果認為失敗的原因是全面性的,就會預期自己在其他生活領域也會遭遇失敗,而如果歸因於特定因素則不會這麼想;如果認為失敗的原因是長期性的,就會預期失敗將一直發生,而如果歸因於短暫因素就不會這麼想;如果認為失敗是跟個人內在因素有關,自尊就會遭受嚴重打擊,而如果歸因於外在因素則不會如此。

-----廣告,請繼續往下閱讀-----

這並不表示,把功勞都歸於自己,把失敗都歸咎於外在環境,就是擁有成功、幸福人生的祕訣。最好的方法是面對現實、做出正確歸因,雖然這樣做可能會造成情緒負荷,但準確分析成敗原因,並找出問題所在,才可能在下一次獲得更好的結果。不過平心而論,在大多數情況下,過度自責確實會造成不良心理後果。正如接下來所要探討的,在擁有無限選擇的世界,人們更容易因為結果不如意而自責。

——本書摘自《選擇的弔詭》,2023 年 11 月,一起來出版,未經同意請勿轉載。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

一起來
5 篇文章 ・ 2 位粉絲