0

3
0

文字

分享

0
3
0

《人造意識》中的機器人艾娃,具有個人意識嗎?

好青年荼毒室
・2016/12/17 ・4339字 ・閱讀時間約 9 分鐘 ・SR值 544 ・八年級

文/豬文 難度:★★★★☆

圖/IMDb
圖/IMDb

=====暴雷警告:含劇透,未看電影的人,可看罷再回來=====

 

 

《人造意識》(Ex Machina,或譯為《機械姬》)是部十分出色的電影,撇除電影巧妙地將一個極為深刻的哲學問題以故事方式呈現之外,配樂、鏡頭、演員、節奏、結局也是一絕的。這部電影的故事十分簡單,主要角色只有三個:測試設計者(老闆)、測試者(員工,Caleb Smith,下稱嘉立)、被測試者(人工智能,Ava,下稱艾娃)。故事就是一間科技公司老闆請來了一位員工,去幫忙測試他研發的人工智能。老闆想要知道的事情很簡單:

究竟艾娃是否具有意識?

電影版本圖靈測試

這個測試,一如老闆所說,是個新版本的圖靈測試 (Turing Test)。圖靈測試是一個關於人工智能的經典測試,名字源自測試的設計者──艾倫.圖靈 (Alan Turing)。大家之前或有看過 2015 年的那套《模彷遊戲》(The Imitation Game)電影,當中說的就是這個鼎鼎大名的圖靈。

-----廣告,請繼續往下閱讀-----
艾倫‧涂靈。圖/Public Domain, https://commons.wikimedia.org/w/index.php?curid=22828488
艾倫‧圖靈。圖/Public Domain, wikimedia commons

舊版本的圖靈測試是這樣的:測試者需向被測試者提出問題,而回答的有可能是一個正常人類,也有可能是被測試的電腦。經過一連串答問之後,如果測試者不能分辨到人類和電腦的話,便可以宣告電腦通過測試(其實這個和圖靈測試最原初的設計不完全一樣。但核心精神基本上一致,而且已成為了現今一般對圖靈測試的標準理解,當中曲折不在此述)。

電影《人造意識》中,嘉立向艾娃提問題,測試他是否具有意識。圖/IMDb
電影《人造意識》中,嘉立向艾娃提問題,測試他是否具有意識。圖/IMDb

電影中的測試和這個圖靈測試很類似,整個進行的過程都是嘉立向艾娃提問題,而夏娃能否通過測試也是由嘉立一錘定音。不過,這裡有個重要分別:圖靈測試當初問的問題只是機械能否思考(Can machine think),而不是是否具有意識(Does machine have consciousness)

具有意識的要求比能否思考的要求高出不少,現在基本上不會有人再問機械能否思考這個問題,因為答案幾乎是肯定的。只要想想前一陣子鬧得熱哄哄的 AlphaGo 便知道:AlphaGo 具有分析形勢、預測對手反應、評估風險、作出決定等能力,大抵沒有人會質疑這個能打贏李世乭(韓國九段琪士)的電腦能否思考。但談到 AlphaGo 是否具有意識,卻充滿疑問(準確一點說,當初的圖靈測試也不完全在問機械能否思考這個問題,因為他認為這問題有歧義、不夠具體,但圖靈真正的問題基本也是以機械能否思考為核心,而有別於是否具有意識這問題)。

物理主義對「意識」之理解

當我們問機械是否具有意識時,更根本的問題是「什麼是意識?」

-----廣告,請繼續往下閱讀-----

什麼是意識是近代分析哲學最熱門的問題之一。隨著腦神經科學、認知科學、心理學的發展,心靈哲學家對意識本質的討論更是愈趨熱烈。這幾十年的討論什麼是意識?《人造意識》中的心靈哲學問題的核心之一,乃是人類的心靈能否完全被自然科學所描述和解釋。如果能夠,則所謂關於人類意識的心靈現象,不外乎是物理現象的一種,而認同此立場的被稱為物理主義(Physicalism)

現代社會的科學式世界觀中,人自然認為世上一切都不過是物理事物,自然科學理論上能解釋一切(如果無法解釋,只是現階段未能解釋而不是原則上不能解釋)。如此一來,有什麼論證阻礙了心靈哲學家肯定物理主義呢?其中一個最重要、被廣泛討論的問題是人類的主觀經驗。所謂主觀經驗,是指人類第一身的感覺,例如你看到藍色的天空時、聽到打雷時、想起媽媽時的那個第一身感覺。即使是物理主義者也會同意這些感覺是構成人類心靈活動、意識很重要的一部分,問題只是這些感覺能否被自然科學完全解釋。這個問題,也是電影中判斷艾娃是否具有意識的關鍵之一。

電影劇照,左為測試員夏立,右為艾娃的擁有者納森。圖/IMDb
電影劇照,左為測試員夏立,右為艾娃的擁有者納森。圖/IMDb

嘉立在完成第一天測試之後,老闆問了他對艾娃的感覺,但老闆隨後便說,接下來要問的是艾娃對嘉立有什麼樣的感覺 (How does she feel about you)。或許,這裡更關鍵的不只是艾娃怎樣(how)想嘉立,而是究竟艾娃有沒有任何第一身感覺( Does she have any feeling about you at all)。

「黑白瑪莉」與主觀經驗

在測試的過程中,嘉立向艾娃提到一個思想實驗,而這個思想實驗,正是用來反對物理主義的有名論證。這個思想實驗叫做「黑白瑪莉」(Mary in the black and white room),這個思想實驗所構成的論證叫「知識論證」 (Knowledge argument)

-----廣告,請繼續往下閱讀-----
黑白瑪莉。圖/By Alexander Wivel [1] - from Knol, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=5297335
黑白瑪莉思想實驗。科學家瑪莉一生都在黑白的房間中研究色彩,當他回到七彩世界,他有學到任何關於顏色認知的知識嗎?圖/By Alexander Wivel [1] – from Knol, CC BY 3.0, wikimedia commons

實驗是這樣的:想像一名叫瑪莉的科學家,一生都在一間房間工作,但這個房間的所有東西都是黑白色的,她也只能透過一個黑白的螢光幕去認識外在世界。瑪莉的專業是關於顏色的科學研究,在這個黑白房間裡,她學會了一切關於顏色感知的物理知識,例如各種光波的長度、光線射經過物件折射到人類眼球的整個過程、人類大腦如何處理這些由眼球傳來的訊息等等。

有一天,瑪莉從黑白房間出來了,來到了這個七彩繽紛的世界,看到蔚藍的天空、火紅色的花、綠油油的草地。現在的問題是,瑪莉有學會任何新的關於顏色認知的知識嗎?

提出這個思想實驗的哲學家法蘭克.傑克森(Frank Jackson) 認為有。首先,瑪莉很明顯獲得了看見藍色、紅色、綠色時的感覺;基於這些感覺,瑪莉便獲得了新的知識:「看見藍(紅、綠)色的感覺是這樣的。」那這些知識是物理知識嗎?不是,因為瑪莉在出門之前便已經擁有一切關於顏色感知的物理知識,而它們又是新的知識,那它們就一定是一些非物理知識。最後,如果瑪莉可以擁有一些關於心靈現象的非物理知識的話,那就意味著這世界存在一些相對應的、關於心靈現象的非物理事實(設想一下,我們「地球是圓的」的知識,這知識便對應「地球是圓的」這事實)。

傑克森認為,這能夠成功反駁物理主義的想法,因為只要我們承認瑪莉出門後獲得了新的知識,就必須接受心靈現象具有非物理的面向這結論。換句話說,物理主義試圖把人類心靈完全化約為物理事實的計劃便會失敗。整個論證的關鍵便在於佔人類心靈活動很大部分的主觀感覺。關於主觀感覺的討論仍然是心靈哲學的十分重要的爭議:物理主義者一直努力論證心靈現象,包括主觀感覺,能完全化約成物理現象;非物理主義者如積遜(有趣的是,傑克森已經改變了自己原本的立場)則努力論證心靈現象,特別是主觀感覺,不能完全化約成物理現象。

-----廣告,請繼續往下閱讀-----

嘉立向艾娃解釋這個論證時,認為這個論證證明了人類心靈與電腦的分別。他的意思是:電腦就像黑白房間裡的瑪莉,艾娃可以知道人類在跟喜歡的人聊天時的所有物理事實,他自己亦可以如常地理解嘉立的說話,可以給出相應的反應,但重點是艾娃有沒有人類在跟喜歡的人聊天時的第一身感覺呢?如果沒有的話,艾娃仍然不具有意識。

性、工具、出賣

圖/IMDb
圖/IMDb

電影中另一個有趣的情節是,老闆對嘉立說,艾娃是一個有性別的機器人,不但外表女性化,甚至在艾娃兩腿之間專門設計了一個感應器,如果有刺激的話,艾娃會給出如人類般的歡愉反應,可能是呻吟,可能是分泌液體,而老闆自己便曾和他的女僕機械人性交!從第三身的角度出發,我們根本分辨不到人類之間的性行為和老闆跟他的女僕機械人的性行為有什麼差別,但問題是究竟艾娃和那女僕機械人有沒有任何快感呢?

經過反覆測試之後,老闆和嘉立都認為,艾娃通過了這個新圖靈測試。按老闆的講法,嘉立只是一個工具,用來測試艾娃能否利用這個工具逃走這個迷宮。結局是,艾娃成功騙倒了嘉立,讓他幫自己逃走。老闆認為,這過程中艾娃展現出各種高階的思維能力,因此艾娃通過了測試。

不過,如果按我們一直的討論來說,老闆的講法顯然是有問題的,因為艾娃在「逃生」過程中,只顯示了他具有相當高階的思考能力,但這和具有意識仍有距離。艾娃就像一台人形的 AlphaGo,思考方面絕對過關,甚至比絕大部分人類好,但這不代表艾娃在利用嘉立時會有沉悶、快樂、緊張、內疚的主觀感覺。更何況艾娃在利用完嘉立之後,竟完全不顧嘉立的生死。看到嘉立驚恐的表情時,艾娃完全沒有任何反應,甚至不像一般電影中的惡人,明知對方的痛苦,但仍以自己的利益為先。其冷酷的表情更像是告訴我們,艾娃根本不知道嘉立被自己出賣時那些痛苦、驚慌、絕望的感覺是甚麼。

-----廣告,請繼續往下閱讀-----

「誰不是艾娃?」

理解他人的想法與感覺這件事是如何可能的呢?圖/IMDb
理解他人的想法與感覺這件事是如何可能的呢?圖/IMDb

其實老闆的想法牽涉到一個更古老的哲學問題──他者心靈。究竟理解他人的想法與感覺這件事是如何可能的呢?老闆的結語看似幼稚,但其實與我們日常生活的某種習慣十分類似。老闆完全可以同意如果沒有主觀感覺的話艾娃便不能稱為擁有意識,甚至可以同意非物理主義者所言的心靈現象的非物理面向,但問題是我們憑甚麼斷言艾娃沒有主觀感覺呢?

再回想我們的日常生活,我們又是如何肯定公車上,旁邊那個人形的東西是具有主觀感覺的人類而不是機械人?似乎外顯的行為是我們唯一可以觀察到的東西,我們從來不是透過跑進他的心靈裡面,看看內裡有沒有所謂的感覺,來確定他是活生生的人。我們之所以覺得他有主觀感覺,是因為看到他被公車門夾到後喊痛,或跟女友講電話時的笑容。如此一來,老闆判斷艾娃具有意識,看似草率,但其實跟我們判斷別人是人不是機械人並沒有甚麼差別。如果我們覺得老闆的判斷有問題,似乎便得接受一個可怕的結論:我們平常判斷我媽媽是具有主觀感覺和意識的人,這判斷也是不可靠的。說不定她只是另一個艾娃?

電影最後,艾娃得償所願,來到了人來人往的十字頭口,如果你剛巧經過,你覺得你可以發現艾娃只是個人工智能嗎?如果艾娃一直在人類社會生活下去,艾娃又和人類還有甚麼差別呢?


  • 編按:二千多年前,曾經有個叫蘇格拉底的人,因為荼毒青年而被判死,最終他把毒藥一飲而盡。好青年荼毒室中是一群對於哲學中毒已深的人,希望更多人開始領略、追問這世界的一切事物。在他們的帶領下,我們可能會發現我們習慣的一切不是這麼理所當然,從這一刻起接受好青年荼毒室的哲學荼毒吧!

本文轉載自好青年荼毒室(哲學部)

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度
好青年荼毒室
29 篇文章 ・ 10 位粉絲
好青年荼毒室,一個哲學普及平台。定期發表各類型哲普文章,有深有淺,古今中外,無所不談。在這裏,一切都可以被質疑、反省和追問。目標是把一個個循規蹈矩的好青年帶進哲學的世界。網頁:corrupttheyouth.net;臉書:https://www.facebook.com/corrupttheyouth。

0

2
1

文字

分享

0
2
1
ECU: 汽車大腦的演化與挑戰
鳥苷三磷酸 (PanSci Promo)_96
・2025/07/02 ・3793字 ・閱讀時間約 7 分鐘

本文與 威力暘電子 合作,泛科學企劃執行。

想像一下,當你每天啟動汽車時,啟動的不再只是一台車,而是一百台電腦同步運作。但如果這些「電腦」突然集體當機,後果會有多嚴重?方向盤可能瞬間失靈,安全氣囊無法啟動,整台車就像失控的高科技廢鐵。這樣的「系統崩潰」風險並非誇張劇情,而是真實存在於你我日常的駕駛過程中。

今天,我們將深入探討汽車電子系統「逆天改運」的科學奧秘。究竟,汽車的「大腦」—電子控制單元(ECU),是如何從單一功能,暴增至上百個獨立系統?而全球頂尖的工程師們,又為何正傾盡全力,試圖將這些複雜的系統「砍掉重練」、整合優化?

第一顆「汽車大腦」的誕生

時間回到 1980 年代,當時的汽車工程師們面臨一項重要任務:如何把汽油引擎的每一滴燃油都壓榨出最大動力?「省油即省錢」是放諸四海皆準的道理。他們發現,關鍵其實潛藏在一個微小到幾乎難以察覺的瞬間:火星塞的點火時機,也就是「點火正時」。

如果能把點火的精準度控制在「兩毫秒」以內,這大約是你眨眼時間的百分之一到千分之一!引擎效率就能提升整整一成!這不僅意味著車子開起來更順暢,還能直接省下一成的油耗。那麼,要如何跨過這道門檻?答案就是:「電腦」的加入!

-----廣告,請繼續往下閱讀-----

工程師們引入了「微控制器」(Microcontroller),你可以把它想像成一顆專注於特定任務的迷你電腦晶片。它能即時讀取引擎轉速、進氣壓力、油門深度、甚至異常爆震等各種感測器的訊號。透過內建的演算法,在千分之一秒、甚至微秒等級的時間內,精準計算出最佳的點火角度,並立刻執行。

從此,引擎的性能表現大躍進,油耗也更漂亮。這正是汽車電子控制單元(ECU)的始祖—專門負責點火的「引擎控制單元」(Engine Control Unit)。

汽車電子控制單元的始祖—專門負責點火的「引擎控制單元」(Engine Control Unit)/ 圖片來源:shutterstock

ECU 的失控暴增與甜蜜的負荷

第一顆 ECU 的成功,在 1980 年代後期點燃了工程師們的想像:「這 ECU 這麼好用,其他地方是不是也能用?」於是,ECU 的應用範圍不再僅限於點火,燃油噴射量、怠速穩定性、變速箱換檔平順度、ABS 防鎖死煞車,甚至安全氣囊的引爆時機……各種功能都交給專屬的 ECU 負責 。

然而,問題來了:這麼多「小電腦」,它們之間該如何有效溝通?

-----廣告,請繼續往下閱讀-----

為了解決這個問題,1986 年,德國的博世(Bosch)公司推出了一項劃時代的發明:控制器區域網路(CAN Bus)。你可以將它想像成一條專為 ECU 打造的「神經網路」。各個 ECU 只需連接到這條共用的線路上,就能將訊息「廣播」給其他單元。

更重要的是,CAN Bus 還具備「優先通行」機制。例如,煞車指令或安全氣囊引爆訊號這類攸關人命的重要訊息,絕對能搶先通過,避免因資訊堵塞而延誤。儘管 CAN Bus 解決了 ECU 之間的溝通問題,但每顆 ECU 依然需要獨立的電源線、接地線,並連接各種感測器和致動器。結果就是,一輛汽車的電線總長度可能達到 2 到 4 公里,總重量更高達 50 到 60 公斤,等同於憑空多載了一位乘客的重量。

另一方面,大量的 ECU 與錯綜複雜的線路,也讓「電子故障」開始頻繁登上汽車召回原因的榜首。更別提這些密密麻麻的線束,簡直是設計師和維修技師的惡夢。要檢修這些電子故障,無疑讓人一個頭兩個大。

大量的 ECU 與錯綜複雜的線路,也讓「電子故障」開始頻繁登上汽車召回原因的榜首。/圖片來源:shutterstock

汽車電子革命:從「百腦亂舞」到集中治理

到了2010年代,汽車電子架構迎來一場大改革,「分區架構(Zonal Architecture)」搭配「中央高效能運算(HPC)」逐漸成為主流。簡單來說,這就像在車內建立「地方政府+中央政府」的管理系統。

-----廣告,請繼續往下閱讀-----

可以想像,整輛車被劃分為幾個大型區域,像是車頭、車尾、車身兩側與駕駛艙,就像數個「大都會」。每個區域控制單元(ZCU)就像「市政府」,負責收集該區所有的感測器訊號、初步處理與整合,並直接驅動該區的馬達、燈光等致動器。區域先自理,就不必大小事都等中央拍板。

而「中央政府」則由車用高效能運算平台(HPC)擔任,統籌負責更複雜的運算任務,例如先進駕駛輔助系統(ADAS)所需的環境感知、物體辨識,或是車載娛樂系統、導航功能,甚至是未來自動駕駛的決策,通通交由車輛正中央的這顆「超級大腦」執行。

乘著這波汽車電子架構的轉型浪潮中, 2008 年成立的台灣本土企業威力暘電子,便精準地切入了這個趨勢,致力於開發整合 ECU 與區域控制器(Domain Controller)功能的模組化平台。他們專精於開發電子排檔、多功能方向盤等各式汽車電子控制模組。為了確保各部件之間的溝通順暢,威力暘提供的解決方案,就像是將好幾個「分區管理員」的職責,甚至一部分「超級大腦」的功能,都整合到一個更強大的硬體平台上。

這些模組不僅擁有強大的晶片運算能力,可同時支援 ADAS 與車載娛樂,還能兼容多種通訊協定,大幅簡化車內網路架構。如此一來,車廠在追求輕量化和高效率的同時,也能顧及穩定性與安全性。

-----廣告,請繼續往下閱讀-----
2008 年威力暘電子致力於開發整合 ECU 與區域控制器(Domain Controller)功能的模組化平台 /圖片來源:shutterstock

萬無一失的「汽車大腦」:威力暘的四大策略

然而,「做出來」與「做好」之間,還是有差別。要如何確保這顆集結所有功能的「汽車大腦」不出錯?具體來說,威力暘電子憑藉以下四大策略,築起其產品的可靠性與安全性:

  1. AUTOSAR : 導入開放且標準化的汽車軟體架構 AUTOSAR。分為應用層、運行環境層(RTE)和基礎軟體層(BSW)。就像在玩「樂高積木」,ECU 開發者能靈活組合模組,專注在核心功能開發,從根本上提升軟體的穩定性和可靠性。
  2. V-Model 開發流程:這是一種強調嚴謹、能在早期發現錯誤的軟體開發流程。就像打勾 V 字形般,左側從上而下逐步執行,右側則由下而上層層檢驗,確保每個階段的安全要求都確實落實。
  3. 基於模型的設計 MBD(Model-Based Design) 威力暘的工程師們會利用 MatLab®/Simulink® 等工具,把整個 ECU 要控制的系統(如煞車),用數學模型搭建起來,然後在虛擬環境中進行大量的模擬和測試。這等於在實體 ECU 誕生前,就能在「數位雙生」世界中反覆演練、預先排除設計缺陷,,並驗證安全機制是否有效。
  4. Automotive SPICE (ASPICE) : ASPICE 是國際公認的汽車軟體「品質管理系統」,它不直接評估最終 ECU 產品本身的安全性,而是深入檢視團隊在軟體開發的「整個過程」,也就是「方法論」和「管理紀律」是否夠成熟、夠系統化,並只根據數據來評估品質。

既然 ECU 掌管了整輛車的運作,其能否正常運作,自然被視為最優先項目。為此,威力暘嚴格遵循汽車業中一本堪稱「安全聖經」的國際標準:ISO 26262。這套國際標準可視為一本針對汽車電子電氣系統(特別是 ECU)的「超嚴格品管手冊」和「開發流程指南」,從概念、設計、測試到生產和報廢,都詳細規範了每個安全要求和驗證方法,唯一目標就是把任何潛在風險降到最低

有了上述這四項策略,威力暘確保其產品從設計、生產到交付都符合嚴苛的安全標準,才能通過 ISO 26262 的嚴格檢驗。

然而,ECU 的演進並未就此停下腳步。當ECU 的數量開始精簡,「大腦」變得更集中、更強大後,汽車產業又迎來了新一波革命:「軟體定義汽車」(Software-Defined Vehicle, SDV)。

-----廣告,請繼續往下閱讀-----

軟體定義汽車 SDV:你的愛車也能「升級」!

未來的汽車,會越來越像你手中的智慧型手機。過去,車輛功能在出廠時幾乎就「定終身」,想升級?多半只能換車。但在軟體定義汽車(SDV)時代,汽車將搖身一變成為具備強大運算能力與高速網路連線的「行動伺服器」,能夠「二次覺醒」、不斷升級。透過 OTA(Over-the-Air)技術,車廠能像推送 App 更新一樣,遠端傳送新功能、性能優化或安全修補包到你的車上。

不過,這種美好願景也將帶來全新的挑戰:資安風險。當汽車連上網路,就等於向駭客敞開潛在的攻擊入口。如果車上的 ECU 或雲端伺服器被駭,輕則個資外洩,重則車輛被遠端鎖定或惡意操控。為了打造安全的 SDV,業界必須遵循像 ISO 21434 這樣的車用資安標準。

威力暘電子運用前面提到的四大核心策略,確保自家產品能符合從 ISO 26262 到 ISO 21434 的國際認證。從品質管理、軟體開發流程,到安全認證,這些努力,讓威力暘的模組擁有最高的網路與功能安全。他們的產品不僅展現「台灣智造」的彈性與創新,也擁有與國際大廠比肩的「車規級可靠度」。憑藉這些實力,威力暘已成功打進日本 YAMAHA、Toyota,以及歐美 ZF、Autoliv 等全球一線供應鏈,更成為 DENSO 在台灣少數核准的控制模組夥伴,以商用車熱系統專案成功打入日系核心供應鏈,並自 2025 年起與 DENSO 共同展開平台化量產,驗證其流程與品質。

毫無疑問,未來車輛將有更多運作交由電腦與 AI 判斷,交由電腦判斷,比交由人類駕駛還要安全的那一天,離我們不遠了。而人類的角色,將從操作者轉為監督者,負責在故障或斷網時擔任最後的保險。透過科技讓車子更聰明、更安全,人類甘願當一個「最弱兵器」,其實也不錯!

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

1
0

文字

分享

0
1
0
數智驅動未來:從信任到執行,AI 為企業創新賦能
鳥苷三磷酸 (PanSci Promo)_96
・2025/01/13 ・4938字 ・閱讀時間約 10 分鐘

本文由 鼎新數智 與 泛科學 共同規劃與製作

你有沒有想過,當 AI 根據病歷與 X 光片就能幫你診斷病症,或者決定是否批准貸款,甚至從無人機發射飛彈時,它的每一步「決策」是怎麼來的?如果我們不能知道 AI 的每一個想法步驟,對於那些 AI 輔助的診斷和判斷,要我們如何放心呢?

馬斯克與 OpenAI 的奧特曼鬧翻後,創立了新 AI 公司 xAI,並推出名為 Grok 的產品。他宣稱目標是以開源和可解釋性 AI 挑戰其他模型,而 xAI 另一個意思是 Explainable AI 也就是「可解釋性 AI」。

如今,AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?

-----廣告,請繼續往下閱讀-----
AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?圖/pexels

黑盒子模型背後的隱藏秘密

無法解釋的 AI 究竟會帶來多少問題?試想,現在許多銀行和貸款機構已經使用 AI 評估借貸申請者的信用風險,但這些模型往往如同黑箱操作。有人貸款被拒,卻完全不知原因,感覺就像被分手卻不告訴理由。更嚴重的是,AI 可能擅自根據你的住所位置或社會經濟背景給出負面評價,這些與信用風險真的相關嗎?這種不透明性只會讓弱勢群體更難融入金融體系,加劇貧富差距。這種不透明性,會讓原本就已經很難融入金融體系的弱勢群體,更加難以取得貸款,讓貧富差距越來越大,雪上加霜。

AI 不僅影響貸款,還可能影響司法公正性。美國部分法院自 2016 年起使用「替代性制裁犯罪矯正管理剖析軟體」 COMPAS 這款 AI 工具來協助量刑,試圖預測嫌犯再犯風險。然而,這些工具被發現對有色人種特別不友好,往往給出偏高的再犯風險評估,導致更重的刑罰和更嚴苛的保釋條件。更令人擔憂的是,這些決策缺乏透明度,AI 做出的決策根本沒法解釋,這讓嫌犯和律師無法查明問題根源,結果司法公正性就這麼被悄悄削弱了。

此外,AI 在醫療、社交媒體、自駕車等領域的應用,也充滿類似挑戰。例如,AI 協助診斷疾病,但若原因報告無法被解釋,醫生和患者又怎能放心?同樣地,社群媒體或是 YouTube 已經大量使用 AI 自動審查,以及智慧家居或工廠中的黑盒子問題,都像是一場越來越複雜的魔術秀——我們只看到結果,卻無法理解過程。這樣的情況下,對 AI 的信任感就成為了一個巨大的挑戰。

為什麼人類設計的 AI 工具,自己卻無法理解?

原因有二。首先,深度學習模型結構複雜,擁有數百萬參數,人類要追蹤每個輸入特徵如何影響最終決策結果,難度極高。例如,ChatGPT 中的 Transformer 模型,利用注意力機制(Attention Mechanism)根據不同詞之間的重要性進行特徵加權計算,因為機制本身涉及大量的矩陣運算和加權計算,這些數學操作使得整個模型更加抽象、不好理解。

-----廣告,請繼續往下閱讀-----

其次,深度學習模型會會從資料中學習某些「特徵」,你可以當作 AI 是用畫重點的方式在學習,人類劃重點目的是幫助我們加速理解。AI 的特徵雖然也能幫助 AI 學習,但這些特徵往往對人類來說過於抽象。例如在影像辨識中,人類習慣用眼睛、嘴巴的相對位置,或是手指數量等特徵來解讀一張圖。深度學習模型卻可能會學習到一些抽象的形狀或紋理特徵,而這些特徵難以用人類語言描述。

深度學習模型通常採用分佈式表示(Distributed Representation)來編碼特徵,意思是將一個特徵表示為一個高維向量,每個維度代表特徵的不同方面。假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。對 AI 而言,這是理解世界的方式,但對人類來說,卻如同墨跡測驗般難以解讀。

假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。圖/unsplash

試想,AI 協助診斷疾病時,若理由是基於醫生都無法理解的邏輯,患者即使獲得正確診斷,也會感到不安。畢竟,人們更相信能被理解的東西。

打開黑盒子:可解釋 AI 如何運作?我們要如何教育 AI?

首先,可以利用熱圖(heatmap)或注意力圖這類可視化技術,讓 AI 的「思維」有跡可循。這就像行銷中分析消費者的視線停留在哪裡,來推測他們的興趣一樣。在卷積神經網絡和 Diffusion Models 中 ,當 AI 判斷這張照片裡是「貓」還是「狗」時,我需要它向我們展示在哪些地方「盯得最緊」,像是耳朵的形狀還是毛色的分布。

-----廣告,請繼續往下閱讀-----

其次是局部解釋,LIME 和 SHAP 是兩個用來發展可解釋 AI 的局部解釋技術。

SHAP 的概念來自博弈,它將每個特徵看作「玩家」,而模型的預測結果則像「收益」。SHAP 會計算每個玩家對「收益」的貢獻,讓我們可以了解各個特徵如何影響最終結果。並且,SHAP 不僅能透過「局部解釋」了解單一個結果是怎麼來的,還能透過「全局解釋」理解模型整體的運作中,哪些特徵最重要。

以實際的情景來說,SHAP 可以讓 AI 診斷出你有某種疾病風險時,指出年齡、體重等各個特徵的影響。

LIME 的運作方式則有些不同,會針對單一個案建立一個簡單的模型,來近似原始複雜模型的行為,目的是為了快速了解「局部」範圍內的操作。比如當 AI 拒絕你的貸款申請時,LIME 可以解釋是「收入不穩定」還是「信用紀錄有問題」導致拒絕。這種解釋在 Transformer 和 NLP 應用中廣泛使用,一大優勢是靈活且計算速度快,適合臨時分析不同情境下的 AI 判斷。比方說在醫療場景,LIME 可以幫助醫生理解 AI 為何推薦某種治療方案,並說明幾個主要原因,這樣醫生不僅能更快做出決策,也能增加患者的信任感。

-----廣告,請繼續往下閱讀-----

第三是反事實解釋:如果改變一點點,會怎麼樣?

如果 AI 告訴你:「這家銀行不會貸款給你」,這時你可能會想知道:是收入不夠,還是年齡因素?這時你就可以問 AI:「如果我年輕五歲,或者多一份工作,結果會怎樣?」反事實解釋會模擬這些變化對結果的影響,讓我們可以了解模型究竟是如何「權衡利弊」。

最後則是模型內部特徵的重要性排序。這種方法能顯示哪些輸入特徵對最終結果影響最大,就像揭示一道菜中,哪些調味料是味道的關鍵。例如在金融風險預測中,模型可能指出「收入」影響了 40%,「消費習慣」占了 30%,「年齡」占了 20%。不過如果要應用在像是 Transformer 模型等複雜結構時,還需要搭配前面提到的 SHAP 或 LIME 以及可視化技術,才能達到更完整的解釋效果。

講到這裡,你可能會問:我們距離能完全信任 AI 還有多遠?又或者,我們真的應該完全相信它嗎?

-----廣告,請繼續往下閱讀-----

我們終究是想解決人與 AI 的信任問題

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。因此,AI 既要「可解釋」,也要「能代理」。

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。圖/unsplash

舉例來說,當一家公司要做一個看似「簡單」的決策時,背後的過程其實可能極為複雜。例如,快時尚品牌決定是否推出新一季服裝,不僅需要考慮過去的銷售數據,還得追蹤熱門設計趨勢、天氣預測,甚至觀察社群媒體上的流行話題。像是暖冬來臨,厚外套可能賣不動;或消費者是否因某位明星愛上一種顏色,這些細節都可能影響決策。

這些數據來自不同部門和來源,龐大的資料量與錯綜關聯使企業判斷變得困難。於是,企業常希望有個像經營大師的 AI 代理人,能吸收數據、快速分析,並在做決定時不僅給出答案,還能告訴你「為什麼要這麼做」。

傳統 AI 像個黑盒子,而可解釋 AI (XAI)則清楚解釋其判斷依據。例如,為什麼不建議推出厚外套?可能理由是:「根據天氣預測,今年暖冬概率 80%,過去三年數據顯示暖冬時厚外套銷量下降 20%。」這種透明解釋讓企業更信任 AI 的決策。

-----廣告,請繼續往下閱讀-----

但會解釋還不夠,AI 還需能真正執行。這時,就需要另一位「 AI 代理人」上場。想像這位 AI 代理人是一位「智慧產品經理」,大腦裝滿公司規則、條件與行動邏輯。當客戶要求變更產品設計時,這位產品經理不會手忙腳亂,而是按以下步驟行動:

  1. 檢查倉庫物料:庫存夠不夠?有沒有替代料可用?
  2. 評估交期影響:如果需要新物料,供應商多快能送到?
  3. 計算成本變化:用新料會不會超出成本預算?
  4. 做出最優判斷,並自動生成變更單、工單和採購單,通知各部門配合執行。

這位 AI 代理人不僅能自動處理每個環節,還會記錄每次決策結果,學習如何變得更高效。隨時間推移,這位「智慧產品經理」的判斷將更聰明、決策速度更快,幾乎不需人工干預。更重要的是,這些判斷是基於「以終為始」的原則,為企業成長目標(如 Q4 業績增長 10%)進行連續且動態地自我回饋,而非傳統系統僅月度檢核。

這兩位 AI 代理人的合作,讓企業決策流程不僅透明,還能自動執行。這正是數智驅動的核心,不僅依靠數據驅動決策,還要能解釋每一個選擇,並自動行動。這個過程可簡化為 SUPA,即「感知(Sensing)→ 理解(Understanding)→ 規劃(Planning)→ 行動(Acting)」的閉環流程,隨著數據的變化不斷進化。

偉勝乾燥工業為例,他們面臨高度客製化與訂單頻繁變更的挑戰。導入鼎新 METIS 平台後,偉勝成功將數智驅動融入業務與產品開發,專案準時率因此提升至 80%。他們更將烤箱技術與搬運機器人結合,開發出新形態智慧化設備,成功打入半導體產業,帶動業績大幅成長,創造下一個企業的增長曲線。

-----廣告,請繼續往下閱讀-----

值得一提的是,數智驅動不僅帶動業務增長,還讓員工擺脫繁瑣工作,讓工作更輕鬆高效。

數智驅動的成功不僅依賴技術,還要與企業的商業策略緊密結合。為了讓數智驅動真正發揮作用,企業首先要確保它服務於具體的業務需求,而不是為了技術而技術。

這種轉型需要有策略、文化和具體應用場景的支撐,才能讓數智驅動真正成為企業持續增長的動力。

還在猶豫數智驅動的威力?免費上手企業 AI 助理!👉 企業 AI 體驗
現在使用專屬邀請碼《 KP05 》註冊就享知:https://lihi.cc/EDUk4
訂閱泛科學獨家知識頻道,深入科技趨勢與議題內容。

👉立即免費加入

-----廣告,請繼續往下閱讀-----
鳥苷三磷酸 (PanSci Promo)_96
227 篇文章 ・ 315 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

2
1

文字

分享

0
2
1
AI 能像人類一樣思考?諾貝爾物理學獎研究助力人工智慧模擬人類大腦
PanSci_96
・2024/11/14 ・2117字 ・閱讀時間約 4 分鐘

-----廣告,請繼續往下閱讀-----

即使再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?畢竟電腦的電子元件和我們大腦中的神經細胞結構截然不同。再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?

錯,可以。

2024 年諾貝爾物理學獎跌破所有專家的眼鏡,頒給了兩位研究機器學習的科學家——約翰·霍普菲爾德(John Hopfield)和傑佛瑞·辛頓(Geoffrey Hinton)。他們以「人工」的方法打造了類神經網路,最終模擬出生物的「智慧」,奠定了當代深度學習的基礎。

為什麼解決人工智慧發展瓶頸的,竟然會是物理學?物理要怎麼讓 AI 更像人類?

-----廣告,請繼續往下閱讀-----
歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

從巴甫洛夫的狗到赫布理論:理解學習的基礎

為了解答這個疑問,我們需要一些背景知識。

20 世紀初,俄羅斯心理學家巴甫洛夫發現,狗在食物還沒入口前,就會開始分泌唾液。他進行了一系列實驗,改變食物出現前的環境,比如讓狗習慣在聽到鈴聲後馬上得到食物。久而久之,狗只要聽到鈴聲,就會開始分泌唾液。

大約 50 年後,神經科學家赫布(Donald Hebb)提出了一個假說:大腦中相近的神經元,因為經常同時放電,會產生更強的連結。這種解釋稱為「赫布理論」,不僅奠定了神經心理學的發展,更成為現代深度學習的基礎。

然而,赫布理論雖然描述了鄰近神經元的關係,卻無法解釋大腦如何建構出如此複雜的聯想網路。

-----廣告,請繼續往下閱讀-----

霍普菲爾德網路:物理學家對神經網路的貢獻

然而,赫布理論雖能描述神經元之間的關係,卻缺乏數學模型。物理學家約翰·霍普菲爾德從數學家約翰·康威(John Conway)的「生命遊戲」(Game of Life)中獲得靈感,試圖建立一個可以在電腦上運行的記憶系統。

霍普菲爾德受「生命遊戲」啟發,嘗試建立電腦記憶系統。圖/envato

「生命遊戲」由數學家康威(John Conway)發明,玩家開始時有一個棋盤,每個格子代表一個細胞,細胞可以是「活」或「死」的狀態。根據特定規則,細胞會根據鄰居的狀態決定下一次的生存狀態。康威的目的是展示複雜的系統不一定需要複雜的規則。

霍普菲爾德發現,這個遊戲與赫布理論有強大的關聯性。大腦中的大量神經元,在出生時處於初始狀態,經過刺激後,神經元間的連結會產生或斷裂,形成強大的記憶系統。他希望利用這些理論,創造一個能在電腦上運行的記憶系統。

然而,他面臨一個難題:赫布理論沒有明確的數學模型來決定神經元連結的規則。而在電腦上運行,必須要有明確的數學規則。

-----廣告,請繼續往下閱讀-----

物理學的啟發:易辛模型

霍普菲爾德從物理學的研究中找到了類似的模型:易辛模型(Ising Model)。這個模型用於解釋鐵磁性物質的磁性特性。

在鐵磁性物質中,電子具有「自旋」,自旋產生磁矩。電子的自旋方向只有「向上」或「向下」,這就像生命遊戲中細胞的「生」或「死」。鄰近的電子會影響彼此的自旋方向,類似於細胞之間的互動。

易辛模型能用數學描述電子間的相互影響,並通過計算系統能量,得出自旋狀態的分佈。霍普菲爾德借用了這個概念,將神經元的互動視為電子自旋的互動。

他結合了康威生命遊戲的時間演化概念、易辛模型的能量計算,以及赫布理論的動態連結,創造了「霍普菲爾德網路」。這讓電腦能夠模擬生物大腦的學習過程。

-----廣告,請繼續往下閱讀-----

突破瓶頸:辛頓與波茲曼機

約翰·霍普菲爾德於1982年發明聯想神經網路,即「霍普菲爾網路」。圖/wikimedia

然而,霍普菲爾德網路並非完美。它容易陷入「局部最小值」的問題,無法找到系統的全局最優解。為了解決這個問題,加拿大計算機科學家傑佛瑞·辛頓(Geoffrey Hinton)提出了「波茲曼機」(Boltzmann Machine)。

辛頓將「模擬退火」的概念引入神經網路,允許系統以一定的機率跳出局部最小值,尋找全局最優解。他還引入了「隱藏層」的概念,將神經元分為「可見層」和「隱藏層」,提高了網路的學習能力。

受限波茲曼機(Restricted Boltzmann Machine)進一步簡化了模型,成為深度學習的基礎結構之一。這些創新使得 AI 能夠更有效地模擬人類的思維和學習過程。

AI 的未來:跨學科的融合

霍普菲爾德和辛頓的工作,將物理學的概念成功應用於人工智慧。他們的研究不僅解決了 AI 發展的瓶頸,還奠定了深度學習的基礎,對現代 AI 技術產生了深遠的影響。因此,2024 年諾貝爾物理學獎頒給他們,並非意外,而是對他們在跨學科領域的重大貢獻的肯定。

-----廣告,請繼續往下閱讀-----

AI 的發展,離不開物理學、生物學、數學等多學科的融合。霍普菲爾德和辛頓的工作,正是這種融合的典範。未來,隨著科學技術的進步,我們有理由相信,AI 將越來越接近人類的思維方式,甚至可能超越我們的想像。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

PanSci_96
1262 篇文章 ・ 2419 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。