Loading [MathJax]/extensions/tex2jax.js

0

0
0

文字

分享

0
0
0

物品損害照價賠償,但身體和心靈的傷又該如何標價?

研之有物│中央研究院_96
・2017/09/27 ・3044字 ・閱讀時間約 6 分鐘 ・SR值 552 ・八年級

痛苦一斤多少錢?

source:Woody-Harrelson

買水果時,我們會看標價。蘋果三顆一百、橘子一斤三十,諸如此類。但當你受傷的時候,若要幫你的「痛苦」標個價,你知道該開多少嗎?頭腫了五千、手骨折三萬,是否存在類似這樣的「公定價」?這是每位審理民事案件的法官,天天都得面對的課題。

法官必須為血肉之軀的苦難,貼上金錢標價。

人的痛苦非常主觀、難以量化,但在許多侵權求償的案件中,法官卻必須依照「痛苦程度」,來判決適當數額的「慰撫金」。別說法官頭痛了,要幫原告打官司的律師,該幫當事人請求多少賠償,也是一樣找不到明確的標準來遵循。

中研院法律所張永健研究員的研究領域,就正好是這個棘手問題的最佳解藥。他用最拿手的統計方法,分析了 2008 至 2012 年數百件車禍與醫療糾紛的案件,以實證科學研究,解開了法院的「慰撫金額方程式」。

慰撫金的概念與民法規定。 資料來源:張永健。圖說設計/黃楷元、張語辰

解開「慰撫金額方程式」

慰撫金註定是個沒有「標準答案」的問題。張永健表示,早從半個多世紀前開始,最高法院就有判例,企圖界定出慰撫金額的衡量標準,像是加害情形、雙方身分地位、經濟情形、被害人痛苦程度等等。但說來說去,仍然十分抽象模糊,找不出一個可遵循可參考的依據。這引發了他的研究興趣,他相信判決縱然是主觀的,但仍然會存在某些相對客觀的原則。

-----廣告,請繼續往下閱讀-----

法官不是神,所受的訓練也不是為了讓他們一眼看穿人的痛苦。

於是,張永健從判決書中抽絲剝繭,把複雜的案件事實化約為各項變數,接著運用統計方法的「多元迴歸模型分析」,終於找出跟慰撫金數額最為相關的兩個因素:「被害人受傷程度」與「醫療費用」。

X 軸與 Y 軸為數值取 log10;取 log10 後的數值,表示原始數值是 1 之後有多少個 0,例如 log10=6 表示原始數值為 1,000,000。從圖中的的分布可以看出,慰撫金額的高低,跟受傷程度、醫療費用,皆呈現正相關。 資料來源:張永健。圖說重製/黃楷元、張語辰

此外,張永健也驗證了經濟學上著名的「定錨效應」。他發現,原告請求的賠償金額,就像是幫法官放下了一個「錨點」,其後的判決,會以這個錨點為基準,進行上下修正。因此,最初請求的金額越高,最後判決金額也會相對應的提高。

定錨效應的定義。例如:第一印象很重要,是定錨效應在社交心理上的體現。 圖說設計/黃楷元、張語辰

這些研究的結論,大大地提高了慰撫金的可預測性。未來可以用這些變項,來建立一套預測模式,甚至設計出賠償金額試算的 APP ,只要輸入相對應的數值,就可以知道慰撫金大概會落在哪個區間。

這套模式若真能落實,不只將能減輕法官的負擔,也讓打官司的兩造,在瞭解「行情」之後,增加和解的可能性,避免不必要的爭訟或上訴,讓已經拉警報的司法資源,可以獲得不小的紓解。

-----廣告,請繼續往下閱讀-----

又是經濟學定理、又是統計學方法,是不是覺得,張永健做的法律研究,有那麼一點「非典型」?沒錯,除了是研究員,張永健也是中研院法實證研究資料中心的執行長,把社會科學的實證資料與方法,應用在法律學門上,正是他的拿手好戲。

實證的法律研究,由於是以科學方法蒐集實證數據資料、並加以系統化的分析,因此結論會更加中性客觀,也更貼近現實世界。

台灣的數據,也許只對台灣有意義。但當你用這些數據建立出具有預測能力的理論,這個模式就可以應用在其他地方了。

法律 + 經濟 + 統計的完美三重奏

會走上實證法律研究這條路,要從張永健還是個高中生說起。當年的他,還是就讀建中的天之驕子。在一個悶熱的午後,正在平衡化學式的少年,突然湧上一股莫名的煩躁,從那一刻起,決定了自己要告別這些元素符號,棄理從文。

在社會組的領域之中,張永健一直都對「個體經濟學」很有興趣。這門學科重視供需關係,研究企業(供給端)及消費者 (需求端)會如何選擇、如何行動,進而決定了市場的樣貌。

-----廣告,請繼續往下閱讀-----

經濟學的本質,就是一門研究「選擇」的科學。

經濟學結合法學領域之後,「法律經濟學」中的「行動者」,就換成法律上所關切的潛在犯罪者、交易者、被害者、律師、法官等等,研究焦點同樣在於,什麼樣的制度、會提供怎樣的誘因、讓他們如何做選擇。

大學聯考的亮眼成績,讓張永健可以選擇任何他想要的志願。對於經濟學有興趣的他,就填了台大法律系的財經法組。不過入學後才發現,財經法組並沒有他想像的那麼「財經」。大部分的課程,還是集中在法律的專業科目。而法律系的課程安排,也讓他無法在一開始就建立自己完整的思考論述體系,有時會知其然、卻不知其所以然。這一切讓張永健感到有些挫折,迷失在追逐背誦各種法律學說之中。

一直到大四修了熊秉元老師的「法律經濟學」,張永健才突然融會貫通。從這門課,他終於找到了自己「看世界的方法」。

「做任何思考分析,要有兩套理論:規範理論與實然理論。實然理論從事實與因果關聯性,去分析各學說的優缺點;規範理論則用來決定在各有優缺點的時候,該如何選擇。」

-----廣告,請繼續往下閱讀-----
規範理論與實然理論之比較。 圖說重製/黃楷元、張語辰

張永健說,從此之後,他再也不用去背那些甲說乙說了,因為掌握了分析架構,自己就可以發展出那些觀點和理論。「就像頓悟一般。」融會貫通的張永健,猶如吃了菠菜的大力水手,求知的本領和衝勁都全面提升。

Q:國內法律學者多選擇德國或日本深造,為何選擇美國?

A:若要鑽研法律經濟學,美國是學術界的不二選擇。就讀紐約大學的時候,簡直比百家爭鳴還要百家爭鳴。各個不同理論派別的學者,彼此間會進行激烈的交鋒,經常直接點名批判,不容許你不回應。在捍衛自身觀點的過程,也完成了縝密思考、深化理論的訓練。作為一個學生,像是在看華山論劍一樣,很過癮!

在台大,張永健讓法律遇見了經濟;到了美國,他又邂逅了統計。終於,收集齊了實證研究所需要的武器,回到台灣,開始實踐他的求知之道。

什麼是「法律實證研究」?

「法律實證研究」是用社會科學的實證研究方法,把抽象的法律規範,放在具體的社會情境中來觀察、理解。透過大量的數據資料、配合統計分析,可以建立各種可預測的模型。對於法律理論的建構與驗證、或是法律制度的改革與優化,都提供了堅實的基礎。

張永健擔任中研院法律所的「法實證研究資料中心」執行長,擅長法律實證研究。巧妙結合法律、經濟、與統計等學門,讓原本較為抽象的法律研究,更加「接地氣」。 攝影/張語辰

延伸閱讀

-----廣告,請繼續往下閱讀-----
文章難易度
研之有物│中央研究院_96
296 篇文章 ・ 3664 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

1
0

文字

分享

0
1
0
ECU: 汽車大腦的演化與挑戰
鳥苷三磷酸 (PanSci Promo)_96
・2025/07/02 ・3793字 ・閱讀時間約 7 分鐘

本文與 威力暘電子 合作,泛科學企劃執行。

想像一下,當你每天啟動汽車時,啟動的不再只是一台車,而是一百台電腦同步運作。但如果這些「電腦」突然集體當機,後果會有多嚴重?方向盤可能瞬間失靈,安全氣囊無法啟動,整台車就像失控的高科技廢鐵。這樣的「系統崩潰」風險並非誇張劇情,而是真實存在於你我日常的駕駛過程中。

今天,我們將深入探討汽車電子系統「逆天改運」的科學奧秘。究竟,汽車的「大腦」—電子控制單元(ECU),是如何從單一功能,暴增至上百個獨立系統?而全球頂尖的工程師們,又為何正傾盡全力,試圖將這些複雜的系統「砍掉重練」、整合優化?

第一顆「汽車大腦」的誕生

時間回到 1980 年代,當時的汽車工程師們面臨一項重要任務:如何把汽油引擎的每一滴燃油都壓榨出最大動力?「省油即省錢」是放諸四海皆準的道理。他們發現,關鍵其實潛藏在一個微小到幾乎難以察覺的瞬間:火星塞的點火時機,也就是「點火正時」。

如果能把點火的精準度控制在「兩毫秒」以內,這大約是你眨眼時間的百分之一到千分之一!引擎效率就能提升整整一成!這不僅意味著車子開起來更順暢,還能直接省下一成的油耗。那麼,要如何跨過這道門檻?答案就是:「電腦」的加入!

-----廣告,請繼續往下閱讀-----

工程師們引入了「微控制器」(Microcontroller),你可以把它想像成一顆專注於特定任務的迷你電腦晶片。它能即時讀取引擎轉速、進氣壓力、油門深度、甚至異常爆震等各種感測器的訊號。透過內建的演算法,在千分之一秒、甚至微秒等級的時間內,精準計算出最佳的點火角度,並立刻執行。

從此,引擎的性能表現大躍進,油耗也更漂亮。這正是汽車電子控制單元(ECU)的始祖—專門負責點火的「引擎控制單元」(Engine Control Unit)。

汽車電子控制單元的始祖—專門負責點火的「引擎控制單元」(Engine Control Unit)/ 圖片來源:shutterstock

ECU 的失控暴增與甜蜜的負荷

第一顆 ECU 的成功,在 1980 年代後期點燃了工程師們的想像:「這 ECU 這麼好用,其他地方是不是也能用?」於是,ECU 的應用範圍不再僅限於點火,燃油噴射量、怠速穩定性、變速箱換檔平順度、ABS 防鎖死煞車,甚至安全氣囊的引爆時機……各種功能都交給專屬的 ECU 負責 。

然而,問題來了:這麼多「小電腦」,它們之間該如何有效溝通?

-----廣告,請繼續往下閱讀-----

為了解決這個問題,1986 年,德國的博世(Bosch)公司推出了一項劃時代的發明:控制器區域網路(CAN Bus)。你可以將它想像成一條專為 ECU 打造的「神經網路」。各個 ECU 只需連接到這條共用的線路上,就能將訊息「廣播」給其他單元。

更重要的是,CAN Bus 還具備「優先通行」機制。例如,煞車指令或安全氣囊引爆訊號這類攸關人命的重要訊息,絕對能搶先通過,避免因資訊堵塞而延誤。儘管 CAN Bus 解決了 ECU 之間的溝通問題,但每顆 ECU 依然需要獨立的電源線、接地線,並連接各種感測器和致動器。結果就是,一輛汽車的電線總長度可能達到 2 到 4 公里,總重量更高達 50 到 60 公斤,等同於憑空多載了一位乘客的重量。

另一方面,大量的 ECU 與錯綜複雜的線路,也讓「電子故障」開始頻繁登上汽車召回原因的榜首。更別提這些密密麻麻的線束,簡直是設計師和維修技師的惡夢。要檢修這些電子故障,無疑讓人一個頭兩個大。

大量的 ECU 與錯綜複雜的線路,也讓「電子故障」開始頻繁登上汽車召回原因的榜首。/圖片來源:shutterstock

汽車電子革命:從「百腦亂舞」到集中治理

到了2010年代,汽車電子架構迎來一場大改革,「分區架構(Zonal Architecture)」搭配「中央高效能運算(HPC)」逐漸成為主流。簡單來說,這就像在車內建立「地方政府+中央政府」的管理系統。

-----廣告,請繼續往下閱讀-----

可以想像,整輛車被劃分為幾個大型區域,像是車頭、車尾、車身兩側與駕駛艙,就像數個「大都會」。每個區域控制單元(ZCU)就像「市政府」,負責收集該區所有的感測器訊號、初步處理與整合,並直接驅動該區的馬達、燈光等致動器。區域先自理,就不必大小事都等中央拍板。

而「中央政府」則由車用高效能運算平台(HPC)擔任,統籌負責更複雜的運算任務,例如先進駕駛輔助系統(ADAS)所需的環境感知、物體辨識,或是車載娛樂系統、導航功能,甚至是未來自動駕駛的決策,通通交由車輛正中央的這顆「超級大腦」執行。

乘著這波汽車電子架構的轉型浪潮中, 2008 年成立的台灣本土企業威力暘電子,便精準地切入了這個趨勢,致力於開發整合 ECU 與區域控制器(Domain Controller)功能的模組化平台。他們專精於開發電子排檔、多功能方向盤等各式汽車電子控制模組。為了確保各部件之間的溝通順暢,威力暘提供的解決方案,就像是將好幾個「分區管理員」的職責,甚至一部分「超級大腦」的功能,都整合到一個更強大的硬體平台上。

這些模組不僅擁有強大的晶片運算能力,可同時支援 ADAS 與車載娛樂,還能兼容多種通訊協定,大幅簡化車內網路架構。如此一來,車廠在追求輕量化和高效率的同時,也能顧及穩定性與安全性。

-----廣告,請繼續往下閱讀-----
2008 年威力暘電子致力於開發整合 ECU 與區域控制器(Domain Controller)功能的模組化平台 /圖片來源:shutterstock

萬無一失的「汽車大腦」:威力暘的四大策略

然而,「做出來」與「做好」之間,還是有差別。要如何確保這顆集結所有功能的「汽車大腦」不出錯?具體來說,威力暘電子憑藉以下四大策略,築起其產品的可靠性與安全性:

  1. AUTOSAR : 導入開放且標準化的汽車軟體架構 AUTOSAR。分為應用層、運行環境層(RTE)和基礎軟體層(BSW)。就像在玩「樂高積木」,ECU 開發者能靈活組合模組,專注在核心功能開發,從根本上提升軟體的穩定性和可靠性。
  2. V-Model 開發流程:這是一種強調嚴謹、能在早期發現錯誤的軟體開發流程。就像打勾 V 字形般,左側從上而下逐步執行,右側則由下而上層層檢驗,確保每個階段的安全要求都確實落實。
  3. 基於模型的設計 MBD(Model-Based Design) 威力暘的工程師們會利用 MatLab®/Simulink® 等工具,把整個 ECU 要控制的系統(如煞車),用數學模型搭建起來,然後在虛擬環境中進行大量的模擬和測試。這等於在實體 ECU 誕生前,就能在「數位雙生」世界中反覆演練、預先排除設計缺陷,,並驗證安全機制是否有效。
  4. Automotive SPICE (ASPICE) : ASPICE 是國際公認的汽車軟體「品質管理系統」,它不直接評估最終 ECU 產品本身的安全性,而是深入檢視團隊在軟體開發的「整個過程」,也就是「方法論」和「管理紀律」是否夠成熟、夠系統化,並只根據數據來評估品質。

既然 ECU 掌管了整輛車的運作,其能否正常運作,自然被視為最優先項目。為此,威力暘嚴格遵循汽車業中一本堪稱「安全聖經」的國際標準:ISO 26262。這套國際標準可視為一本針對汽車電子電氣系統(特別是 ECU)的「超嚴格品管手冊」和「開發流程指南」,從概念、設計、測試到生產和報廢,都詳細規範了每個安全要求和驗證方法,唯一目標就是把任何潛在風險降到最低

有了上述這四項策略,威力暘確保其產品從設計、生產到交付都符合嚴苛的安全標準,才能通過 ISO 26262 的嚴格檢驗。

然而,ECU 的演進並未就此停下腳步。當ECU 的數量開始精簡,「大腦」變得更集中、更強大後,汽車產業又迎來了新一波革命:「軟體定義汽車」(Software-Defined Vehicle, SDV)。

-----廣告,請繼續往下閱讀-----

軟體定義汽車 SDV:你的愛車也能「升級」!

未來的汽車,會越來越像你手中的智慧型手機。過去,車輛功能在出廠時幾乎就「定終身」,想升級?多半只能換車。但在軟體定義汽車(SDV)時代,汽車將搖身一變成為具備強大運算能力與高速網路連線的「行動伺服器」,能夠「二次覺醒」、不斷升級。透過 OTA(Over-the-Air)技術,車廠能像推送 App 更新一樣,遠端傳送新功能、性能優化或安全修補包到你的車上。

不過,這種美好願景也將帶來全新的挑戰:資安風險。當汽車連上網路,就等於向駭客敞開潛在的攻擊入口。如果車上的 ECU 或雲端伺服器被駭,輕則個資外洩,重則車輛被遠端鎖定或惡意操控。為了打造安全的 SDV,業界必須遵循像 ISO 21434 這樣的車用資安標準。

威力暘電子運用前面提到的四大核心策略,確保自家產品能符合從 ISO 26262 到 ISO 21434 的國際認證。從品質管理、軟體開發流程,到安全認證,這些努力,讓威力暘的模組擁有最高的網路與功能安全。他們的產品不僅展現「台灣智造」的彈性與創新,也擁有與國際大廠比肩的「車規級可靠度」。憑藉這些實力,威力暘已成功打進日本 YAMAHA、Toyota,以及歐美 ZF、Autoliv 等全球一線供應鏈,更成為 DENSO 在台灣少數核准的控制模組夥伴,以商用車熱系統專案成功打入日系核心供應鏈,並自 2025 年起與 DENSO 共同展開平台化量產,驗證其流程與品質。

毫無疑問,未來車輛將有更多運作交由電腦與 AI 判斷,交由電腦判斷,比交由人類駕駛還要安全的那一天,離我們不遠了。而人類的角色,將從操作者轉為監督者,負責在故障或斷網時擔任最後的保險。透過科技讓車子更聰明、更安全,人類甘願當一個「最弱兵器」,其實也不錯!

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

1

2
2

文字

分享

1
2
2
讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員
研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

-----廣告,請繼續往下閱讀-----

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

-----廣告,請繼續往下閱讀-----
所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3664 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

2
3

文字

分享

0
2
3
當你猶豫不決時,要不要試試先做再說?——《懂了以後更輕鬆的心理學》
大好書屋_96
・2023/01/09 ・2260字 ・閱讀時間約 4 分鐘

害怕後悔和失敗

「如果做出的選擇不是最好的該怎麼辦?」

若進一步探究這種不安情緒,會發現當中藏有對事後後悔的恐懼。

眾所周知,難以下決定的其中一個原因就是「後悔」,有很多實驗也證明了這一點。我們因為害怕後悔,所以會在下決定前變得謹慎,此外也會擔心發生負面情況、遭遇痛苦的情感,以致於不斷推遲或放棄決策。

因為害怕後悔,所以會在下決定前變得謹慎。圖/pexels

瑣碎的事物如點餐或購物等,也會有後悔的情緒參雜其中,而愈是人生重要的決定,這種情感就愈加強烈,令我們陷入裹足不前的窘境。

像是很多時候明明知道應該和剝削自己的戀人分手,卻擔心離別後感到寂寞與空虛,或是遇不到更好的對象,害怕為此後悔,以致於不敢果斷做出決定。

-----廣告,請繼續往下閱讀-----

最終,他們還是無法擺脫被傷害的處境,一而再、再而三地感到軟弱與無力。換句話說,他們因為擔心「未來的自己」,導致「現在的自己」做不出任何選擇。

不選擇也是一種選擇

人類的這種心理,會演變為「後悔厭惡」(regret aversion),因為覺得「後悔」這種情感非常痛苦,於是傾向避免類似狀況再度發生。

因此,在預期自己可能後悔時,就會拖著不下決定或予以逃避,亦即與其日後後悔,不如一開始就別做選擇。

為了呈現出這種心理狀態,心理學家丹尼爾.康納曼(Daniel Kahneman)與阿莫斯.特沃斯基(Amos Tversky)曾設想過一套情境。

-----廣告,請繼續往下閱讀-----

例如漫心長期持有 A 股,雖然去年曾考慮把 A 股賣掉換成 B 股,但最後還是決定予以保留。結果,最近她得知一個消息:當初猶豫要不要拋售的 A 股,如果賣掉換成 B 股的話,現在可以多賺一百五十萬韓圜。

而萬能博士的情形則相反,去年她雖然保有 B 股,但賣掉換成了 A 股。直到最近才得知:如果當初沒有把 B 股賣掉,就可以多賺一百五十萬韓圜。這兩個人之中,你覺得誰會比較後悔呢?

漫心和萬能博士都錯過了賺取一百五十萬韓圜的機會,但兩者的不同之處在於:漫心先前沒有任何動作,而萬能博士曾經有所行動。

在股票買賣上錯過了賺錢的機會,哪一個會比較後悔?圖/pexels

將這個假想情境交付問卷調查,詢問漫心與萬能博士誰會更加後悔時,有百分之九十二的人都回答:「萬能博士。」換句話說,大多數人都同意因採取行動而錯失利益的萬能博士,事後會更加懊悔。

-----廣告,請繼續往下閱讀-----

這樣的結果,意味著大多數人在日常中都懷著對後悔的恐懼。再強調一次,雖然同樣招致了不良結果,但人們在曾採取行動的狀況下會更加後悔,這是一種反事實思維(counterfactual thinking)的運作。

在我們感到後悔的瞬間,會自動想起與事實相反的情況,因為思考自己曾做過的行為(action):「唉,如果當初沒那麼做就好了」,比設想「未採取任何行動」(inaction)要來得容易。

會不會有更好的選擇?

還有一種類似的概念叫做「不作為慣性」(inaction inertia),亦即為了避免後悔,習慣性地不採取任何行動。例如逛超市時,發現之前想買的家電產品現在打五折,正考慮之際,內心卻產生了這樣的想法:「都快要換季了,再多等一陣子的話,會不會降到四折呢?」最後決定觀望一段時間。

但是,幾天後再去逛超市時,發現同樣的商品改為打六折,而且公告是最後一次折扣。在這種情況下,人們會做出什麼樣的選擇呢?

-----廣告,請繼續往下閱讀-----
再多等一陣子的話,會不會更優惠呢?圖/pexels

大部分的人都不會買,因為後悔自己沒有在之前打五折時下手。假如這是必要的生活用品,而且還打六折的話,相當於可以用比原價低很多的價格購入。不過,後悔的情感實在太過煎熬,以致於把行為導向愚昧且不理智的方向。

猶豫不決時先做再說

但是,以長期觀點來看,如果問人們平生最後悔的是什麼,大多數人的回答都是「未能行動」。

像是當時應該毫不猶豫地去考研究所、那時應該鼓起勇氣告白、應該四處旅行遊歷,或者花更多時間和珍貴的家人相處等……對因沒能付諸行動而錯過的機會感到遺憾和後悔。

如果猶豫要不要四處旅行,那就出發吧!圖/pexels

假如有真的很想擁有的事物,卻因為太害怕後悔而無法下決定的話,不妨回想一下先前提到的心理學觀點。與其擔心未來的自己會不會後悔、進而逃避,不如鼓起勇氣欣然地做出選擇。

-----廣告,請繼續往下閱讀-----

你一定有聽過這樣的說法:「猶豫不決時,就先做再說吧!」如果做不做都會後悔,不如選擇行動。

因為隨著行動而來的後悔,會讓人自我反省並向前看;但什麼都不做的話,只會使人產生迷戀並沉浸於過去。

——本文摘自《懂了以後更輕鬆的心理學:心理諮商專家精選最有感15個議題,克服拖延症、完美主義、自卑、過度擔憂的日常練習》,2022 年 11 月,大好書屋出版,未經同意請勿轉載。

-----廣告,請繼續往下閱讀-----
大好書屋_96
7 篇文章 ・ 8 位粉絲
「大好」是一種期許,期盼生活中有更多美好。「大好」也是一種力量,讓我們相信閱讀可以帶來改變。「大好書屋」四個字搭起了一個家,期盼這份溫暖的力量能持續傳遞下去。大好書屋