5

10
4

文字

分享

5
10
4

從能量效率的觀點,告訴你為何人工智慧無法掌控世界——《眼見為憑》

時報出版_96
・2021/06/13 ・2618字 ・閱讀時間約 5 分鐘

-----廣告,請繼續往下閱讀-----

  • 作者|理查.馬斯蘭(Richard Masland)
  • 譯者|鄧子衿

如果你不知道目的地是哪兒,可能要設定其他目標。——尤吉.貝拉(Yogi Berra)

監督學習與無監督學習

我們每天都聽到機器學習能夠做到需要感知才能達成的任務:自動駕駛汽車、臉部辨識等。也有人擔心智慧機器失控所造成的危險,害怕有天它們利用遠勝於人類的智能,會掌控整個世界。不過這些討論絕大部分都沒有看到明顯的重點:機器學習的確能夠完成一些了不起的任務,但是研究人工智慧的傢伙全都深深了解到,現在最佳的人工智慧還比不上四歲的孩子。

原因在於,絕大部分著名的人工智慧演算法在學習技能時要人教,同時需要使用到極龐大的資料庫,並且得在超級電腦上執行。四歲幼兒只要知道幾個例子之後,自己就能夠學習。說真的,教自己小孩某些技能和概念時的確痛苦萬分,但是他們絕大部分知道的事物,都是基於基本的感知機制,自己教自己的結果,用他們小小的腦袋就足以完成。事實上,就算是多層級且具備反向傳播的感知器,比起我的小孫子還是差太多了。他不需要數不清的例子和教師,就能認得出自己的祖父。只要抱幾次就很快學會說「爺爺」這個詞。

四歲幼兒只要知道幾個例子之後,自己就能夠學習。圖/Pexels

人工智慧研究人員區分了監督學習與無監督學習。你應該記得之前提到那個標準的感知器需要教師。蘋果電腦的聲音識別軟體和咸諾斯基會說話的電腦也要。注重隱私權者所害怕的臉部辨識軟體也需要。你需要大量具備身分標籤的臉部照片,才能夠教軟體辨識臉部。電腦能夠辦得到是因為計算速度非常快,事實上,最近幾年機器學習獲得的成就,主要來自於最近(五年)有了能夠用來訓練的資料庫,以及大型的客製化電腦。腦中神經元運作的速度很慢,無法看這些電腦相比。

但是腦部的能力遠超出這些電腦。在赫柏原始的概念中,創造細胞群組的方式是無監督學習:在邊緣上連續的點本來就會一起出現,腦中的邊緣敏感細胞也是自己出現的。目前電腦科學家迫切的任務之一,是建造出訓練過程如大腦的機器。

-----廣告,請繼續往下閱讀-----

電腦也是從錯誤中學習

我很快就會回來談腦部,不過先說明另一種機器學習形式的例子,這種形式結合了神經網絡和一個新方法。電腦科學家大方的用神經科學的名詞來稱呼這類策略:增強原理(principle of reinforcement),最早有系統進行這方面研究的是偉大的俄羅斯生理學家帕夫洛夫(Pavlov),哈佛大學的史金納(B. F. Skinner)等後繼者發掘了其中的細節。電腦科學家稱這種這種演算法為「增強學習」(reinforcement learning)。「增強」的意思是某種行為會得到報償,如果電腦受到了報償,就會重複那種行為。這個過程讓正確的行為比較容易受到重覆,在神經網絡中的突觸會受到加強,你可以說這是一種反向傳播。增強學習與感知學習很像,只不過電腦會自己製造教師。

增強原理應用——史金納箱。圖/Wikipedia

電腦也可以得到報償。在增強學習的過程中,電腦得找尋一個目標,它會隨便亂猜,剛開始都猜錯,但是如果某個猜測結果稍微接近目標,就會得到報償。電腦得到的報償不是一塊電腦狗糧,而是得到訊息:「幹得好,增強剛才你做出這個猜想時用到的突觸。」接下來電腦會繼續猜,這次會使用新的加權。接下來的步驟你可以想像出來:電腦會持續猜測,每次都調整加權,直到學得完成任務的方法。

人腦與電腦誰比較聰明?

增強學習已經精通了一項極為艱難的技術:下西洋棋,以及更為困難的圍棋。現在電腦的棋力超強,完全勝過人類,而且他們還是自己教自己下棋。我想到的一個演算法是 Alpha Zero,在二○一八年耶誕節前夕於《自然》雜誌上發表研究結果。研究人員只教 Alpha Zero 圍棋的規則:棋盤的模樣、下棋的方式等,之後演算法會自己和自己下西洋棋或是圍棋。這種作法聽起來違背直覺,重點在於每個「自己」並不知道另一個「自己」的思考內容,只知道對方下的棋步。也沒有教師,只有一些事先輸入的規則,讓電腦知道下的棋步是好是壞,以及判定輸贏的標準。四個小時後,電腦就具備了世界級的水準。

這真是非常了不起的成就,而且不只可以讓 Alpha Zero 下各種棋類,還可以讓它做別的事情。谷歌人工智慧團隊的大衛.希爾瓦(David Silver)展示了 Alpha Zero 利用遙控器操縱玩具直升機進行飛行特技,看到那個直升機進行筒狀翻滾飛行(barrel roll),真的讓人確信它有能力。

-----廣告,請繼續往下閱讀-----
電腦對於任務定義範圍叫人狹隘。圖/Pexels

但是 Alpha Zero 真的比我的孫子聰明嗎?差得遠了(除非我孫子和它較量西洋棋)。電腦對於任務定義的範圍非常狹隘,而且體積要比我孫子的腦大多了,也不能光靠巧克力夾心餅乾就能運作。史密森尼學會(Smithsonian)的吳凱薩琳(Katherine Wu)估計,Alpha Zero 硬體運作功率約為一百萬瓦,我孫子的腦只需二十瓦。會在這裡提到神經網絡和增強學習,是因為這兩者都屬於概念驗證(Alpha Zero 內部採用了神經網絡),證明了這種邏輯運算的結果雖然距離腦還差得遠,但的確比較接近腦。

人類的腦部是否也採用了類似深度神經網絡或是 Alpha Zero 所運作的方式?當然有,只是慢得不得了。人腦這種電腦是演化經由無數時光打造而成,其中的突觸和連結都縮小到極致。如果由一堆計算晶片組成的笨重電腦能夠辦得到,人腦也可以。

人工智慧領域中的人很清楚我的孫子遠勝過他們的電腦,並且也正在努力改進。每個人都猜電腦會有多聰明。我認為電腦最後會很聰明,我絕對不會想要和電腦競爭。有各種巧妙的無監督學習模式應用在電腦中,唯一的問題是要花多少時間才能追得上人腦,以及機器完成任務的方式和真正的人腦有多相近。更重要的是,機器完成任務的經濟效率能夠比得上人腦嗎,我會屏息以待這些結果。事實上就目前來說,光是超越人類的電腦所需要消耗的能量之高,就讓我無須擔心會電腦會掌控世界了。

-----廣告,請繼續往下閱讀-----
文章難易度
所有討論 5
時報出版_96
174 篇文章 ・ 35 位粉絲
出版品包括文學、人文社科、商業、生活、科普、漫畫、趨勢、心理勵志等,活躍於書市中,累積出版品五千多種,獲得國內外專家讀者、各種獎項的肯定,打造出無數的暢銷傳奇及和重量級作者,在台灣引爆一波波的閱讀議題及風潮。

0

1
0

文字

分享

0
1
0
數智驅動未來:從信任到執行,AI 為企業創新賦能
鳥苷三磷酸 (PanSci Promo)_96
・2025/01/13 ・4938字 ・閱讀時間約 10 分鐘

-----廣告,請繼續往下閱讀-----

本文由 鼎新數智 與 泛科學 共同規劃與製作

你有沒有想過,當 AI 根據病歷與 X 光片就能幫你診斷病症,或者決定是否批准貸款,甚至從無人機發射飛彈時,它的每一步「決策」是怎麼來的?如果我們不能知道 AI 的每一個想法步驟,對於那些 AI 輔助的診斷和判斷,要我們如何放心呢?

馬斯克與 OpenAI 的奧特曼鬧翻後,創立了新 AI 公司 xAI,並推出名為 Grok 的產品。他宣稱目標是以開源和可解釋性 AI 挑戰其他模型,而 xAI 另一個意思是 Explainable AI 也就是「可解釋性 AI」。

如今,AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?

-----廣告,請繼續往下閱讀-----
AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?圖/pexels

黑盒子模型背後的隱藏秘密

無法解釋的 AI 究竟會帶來多少問題?試想,現在許多銀行和貸款機構已經使用 AI 評估借貸申請者的信用風險,但這些模型往往如同黑箱操作。有人貸款被拒,卻完全不知原因,感覺就像被分手卻不告訴理由。更嚴重的是,AI 可能擅自根據你的住所位置或社會經濟背景給出負面評價,這些與信用風險真的相關嗎?這種不透明性只會讓弱勢群體更難融入金融體系,加劇貧富差距。這種不透明性,會讓原本就已經很難融入金融體系的弱勢群體,更加難以取得貸款,讓貧富差距越來越大,雪上加霜。

AI 不僅影響貸款,還可能影響司法公正性。美國部分法院自 2016 年起使用「替代性制裁犯罪矯正管理剖析軟體」 COMPAS 這款 AI 工具來協助量刑,試圖預測嫌犯再犯風險。然而,這些工具被發現對有色人種特別不友好,往往給出偏高的再犯風險評估,導致更重的刑罰和更嚴苛的保釋條件。更令人擔憂的是,這些決策缺乏透明度,AI 做出的決策根本沒法解釋,這讓嫌犯和律師無法查明問題根源,結果司法公正性就這麼被悄悄削弱了。

此外,AI 在醫療、社交媒體、自駕車等領域的應用,也充滿類似挑戰。例如,AI 協助診斷疾病,但若原因報告無法被解釋,醫生和患者又怎能放心?同樣地,社群媒體或是 YouTube 已經大量使用 AI 自動審查,以及智慧家居或工廠中的黑盒子問題,都像是一場越來越複雜的魔術秀——我們只看到結果,卻無法理解過程。這樣的情況下,對 AI 的信任感就成為了一個巨大的挑戰。

為什麼人類設計的 AI 工具,自己卻無法理解?

原因有二。首先,深度學習模型結構複雜,擁有數百萬參數,人類要追蹤每個輸入特徵如何影響最終決策結果,難度極高。例如,ChatGPT 中的 Transformer 模型,利用注意力機制(Attention Mechanism)根據不同詞之間的重要性進行特徵加權計算,因為機制本身涉及大量的矩陣運算和加權計算,這些數學操作使得整個模型更加抽象、不好理解。

-----廣告,請繼續往下閱讀-----

其次,深度學習模型會會從資料中學習某些「特徵」,你可以當作 AI 是用畫重點的方式在學習,人類劃重點目的是幫助我們加速理解。AI 的特徵雖然也能幫助 AI 學習,但這些特徵往往對人類來說過於抽象。例如在影像辨識中,人類習慣用眼睛、嘴巴的相對位置,或是手指數量等特徵來解讀一張圖。深度學習模型卻可能會學習到一些抽象的形狀或紋理特徵,而這些特徵難以用人類語言描述。

深度學習模型通常採用分佈式表示(Distributed Representation)來編碼特徵,意思是將一個特徵表示為一個高維向量,每個維度代表特徵的不同方面。假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。對 AI 而言,這是理解世界的方式,但對人類來說,卻如同墨跡測驗般難以解讀。

假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。圖/unsplash

試想,AI 協助診斷疾病時,若理由是基於醫生都無法理解的邏輯,患者即使獲得正確診斷,也會感到不安。畢竟,人們更相信能被理解的東西。

打開黑盒子:可解釋 AI 如何運作?我們要如何教育 AI?

首先,可以利用熱圖(heatmap)或注意力圖這類可視化技術,讓 AI 的「思維」有跡可循。這就像行銷中分析消費者的視線停留在哪裡,來推測他們的興趣一樣。在卷積神經網絡和 Diffusion Models 中 ,當 AI 判斷這張照片裡是「貓」還是「狗」時,我需要它向我們展示在哪些地方「盯得最緊」,像是耳朵的形狀還是毛色的分布。

-----廣告,請繼續往下閱讀-----

其次是局部解釋,LIME 和 SHAP 是兩個用來發展可解釋 AI 的局部解釋技術。

SHAP 的概念來自博弈,它將每個特徵看作「玩家」,而模型的預測結果則像「收益」。SHAP 會計算每個玩家對「收益」的貢獻,讓我們可以了解各個特徵如何影響最終結果。並且,SHAP 不僅能透過「局部解釋」了解單一個結果是怎麼來的,還能透過「全局解釋」理解模型整體的運作中,哪些特徵最重要。

以實際的情景來說,SHAP 可以讓 AI 診斷出你有某種疾病風險時,指出年齡、體重等各個特徵的影響。

LIME 的運作方式則有些不同,會針對單一個案建立一個簡單的模型,來近似原始複雜模型的行為,目的是為了快速了解「局部」範圍內的操作。比如當 AI 拒絕你的貸款申請時,LIME 可以解釋是「收入不穩定」還是「信用紀錄有問題」導致拒絕。這種解釋在 Transformer 和 NLP 應用中廣泛使用,一大優勢是靈活且計算速度快,適合臨時分析不同情境下的 AI 判斷。比方說在醫療場景,LIME 可以幫助醫生理解 AI 為何推薦某種治療方案,並說明幾個主要原因,這樣醫生不僅能更快做出決策,也能增加患者的信任感。

-----廣告,請繼續往下閱讀-----

第三是反事實解釋:如果改變一點點,會怎麼樣?

如果 AI 告訴你:「這家銀行不會貸款給你」,這時你可能會想知道:是收入不夠,還是年齡因素?這時你就可以問 AI:「如果我年輕五歲,或者多一份工作,結果會怎樣?」反事實解釋會模擬這些變化對結果的影響,讓我們可以了解模型究竟是如何「權衡利弊」。

最後則是模型內部特徵的重要性排序。這種方法能顯示哪些輸入特徵對最終結果影響最大,就像揭示一道菜中,哪些調味料是味道的關鍵。例如在金融風險預測中,模型可能指出「收入」影響了 40%,「消費習慣」占了 30%,「年齡」占了 20%。不過如果要應用在像是 Transformer 模型等複雜結構時,還需要搭配前面提到的 SHAP 或 LIME 以及可視化技術,才能達到更完整的解釋效果。

講到這裡,你可能會問:我們距離能完全信任 AI 還有多遠?又或者,我們真的應該完全相信它嗎?

-----廣告,請繼續往下閱讀-----

我們終究是想解決人與 AI 的信任問題

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。因此,AI 既要「可解釋」,也要「能代理」。

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。圖/unsplash

舉例來說,當一家公司要做一個看似「簡單」的決策時,背後的過程其實可能極為複雜。例如,快時尚品牌決定是否推出新一季服裝,不僅需要考慮過去的銷售數據,還得追蹤熱門設計趨勢、天氣預測,甚至觀察社群媒體上的流行話題。像是暖冬來臨,厚外套可能賣不動;或消費者是否因某位明星愛上一種顏色,這些細節都可能影響決策。

這些數據來自不同部門和來源,龐大的資料量與錯綜關聯使企業判斷變得困難。於是,企業常希望有個像經營大師的 AI 代理人,能吸收數據、快速分析,並在做決定時不僅給出答案,還能告訴你「為什麼要這麼做」。

傳統 AI 像個黑盒子,而可解釋 AI (XAI)則清楚解釋其判斷依據。例如,為什麼不建議推出厚外套?可能理由是:「根據天氣預測,今年暖冬概率 80%,過去三年數據顯示暖冬時厚外套銷量下降 20%。」這種透明解釋讓企業更信任 AI 的決策。

-----廣告,請繼續往下閱讀-----

但會解釋還不夠,AI 還需能真正執行。這時,就需要另一位「 AI 代理人」上場。想像這位 AI 代理人是一位「智慧產品經理」,大腦裝滿公司規則、條件與行動邏輯。當客戶要求變更產品設計時,這位產品經理不會手忙腳亂,而是按以下步驟行動:

  1. 檢查倉庫物料:庫存夠不夠?有沒有替代料可用?
  2. 評估交期影響:如果需要新物料,供應商多快能送到?
  3. 計算成本變化:用新料會不會超出成本預算?
  4. 做出最優判斷,並自動生成變更單、工單和採購單,通知各部門配合執行。

這位 AI 代理人不僅能自動處理每個環節,還會記錄每次決策結果,學習如何變得更高效。隨時間推移,這位「智慧產品經理」的判斷將更聰明、決策速度更快,幾乎不需人工干預。更重要的是,這些判斷是基於「以終為始」的原則,為企業成長目標(如 Q4 業績增長 10%)進行連續且動態地自我回饋,而非傳統系統僅月度檢核。

這兩位 AI 代理人的合作,讓企業決策流程不僅透明,還能自動執行。這正是數智驅動的核心,不僅依靠數據驅動決策,還要能解釋每一個選擇,並自動行動。這個過程可簡化為 SUPA,即「感知(Sensing)→ 理解(Understanding)→ 規劃(Planning)→ 行動(Acting)」的閉環流程,隨著數據的變化不斷進化。

偉勝乾燥工業為例,他們面臨高度客製化與訂單頻繁變更的挑戰。導入鼎新 METIS 平台後,偉勝成功將數智驅動融入業務與產品開發,專案準時率因此提升至 80%。他們更將烤箱技術與搬運機器人結合,開發出新形態智慧化設備,成功打入半導體產業,帶動業績大幅成長,創造下一個企業的增長曲線。

-----廣告,請繼續往下閱讀-----

值得一提的是,數智驅動不僅帶動業務增長,還讓員工擺脫繁瑣工作,讓工作更輕鬆高效。

數智驅動的成功不僅依賴技術,還要與企業的商業策略緊密結合。為了讓數智驅動真正發揮作用,企業首先要確保它服務於具體的業務需求,而不是為了技術而技術。

這種轉型需要有策略、文化和具體應用場景的支撐,才能讓數智驅動真正成為企業持續增長的動力。

還在猶豫數智驅動的威力?免費上手企業 AI 助理!👉 企業 AI 體驗
現在使用專屬邀請碼《 KP05 》註冊就享知:https://lihi.cc/EDUk4
訂閱泛科學獨家知識頻道,深入科技趨勢與議題內容。

👉立即免費加入

-----廣告,請繼續往下閱讀-----
鳥苷三磷酸 (PanSci Promo)_96
222 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

1
0

文字

分享

0
1
0
AI 能像人類一樣思考?諾貝爾物理學獎研究助力人工智慧模擬人類大腦
PanSci_96
・2024/11/14 ・2117字 ・閱讀時間約 4 分鐘

-----廣告,請繼續往下閱讀-----

即使再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?畢竟電腦的電子元件和我們大腦中的神經細胞結構截然不同。再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?

錯,可以。

2024 年諾貝爾物理學獎跌破所有專家的眼鏡,頒給了兩位研究機器學習的科學家——約翰·霍普菲爾德(John Hopfield)和傑佛瑞·辛頓(Geoffrey Hinton)。他們以「人工」的方法打造了類神經網路,最終模擬出生物的「智慧」,奠定了當代深度學習的基礎。

為什麼解決人工智慧發展瓶頸的,竟然會是物理學?物理要怎麼讓 AI 更像人類?

-----廣告,請繼續往下閱讀-----
歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

從巴甫洛夫的狗到赫布理論:理解學習的基礎

為了解答這個疑問,我們需要一些背景知識。

20 世紀初,俄羅斯心理學家巴甫洛夫發現,狗在食物還沒入口前,就會開始分泌唾液。他進行了一系列實驗,改變食物出現前的環境,比如讓狗習慣在聽到鈴聲後馬上得到食物。久而久之,狗只要聽到鈴聲,就會開始分泌唾液。

大約 50 年後,神經科學家赫布(Donald Hebb)提出了一個假說:大腦中相近的神經元,因為經常同時放電,會產生更強的連結。這種解釋稱為「赫布理論」,不僅奠定了神經心理學的發展,更成為現代深度學習的基礎。

然而,赫布理論雖然描述了鄰近神經元的關係,卻無法解釋大腦如何建構出如此複雜的聯想網路。

-----廣告,請繼續往下閱讀-----

霍普菲爾德網路:物理學家對神經網路的貢獻

然而,赫布理論雖能描述神經元之間的關係,卻缺乏數學模型。物理學家約翰·霍普菲爾德從數學家約翰·康威(John Conway)的「生命遊戲」(Game of Life)中獲得靈感,試圖建立一個可以在電腦上運行的記憶系統。

霍普菲爾德受「生命遊戲」啟發,嘗試建立電腦記憶系統。圖/envato

「生命遊戲」由數學家康威(John Conway)發明,玩家開始時有一個棋盤,每個格子代表一個細胞,細胞可以是「活」或「死」的狀態。根據特定規則,細胞會根據鄰居的狀態決定下一次的生存狀態。康威的目的是展示複雜的系統不一定需要複雜的規則。

霍普菲爾德發現,這個遊戲與赫布理論有強大的關聯性。大腦中的大量神經元,在出生時處於初始狀態,經過刺激後,神經元間的連結會產生或斷裂,形成強大的記憶系統。他希望利用這些理論,創造一個能在電腦上運行的記憶系統。

然而,他面臨一個難題:赫布理論沒有明確的數學模型來決定神經元連結的規則。而在電腦上運行,必須要有明確的數學規則。

-----廣告,請繼續往下閱讀-----

物理學的啟發:易辛模型

霍普菲爾德從物理學的研究中找到了類似的模型:易辛模型(Ising Model)。這個模型用於解釋鐵磁性物質的磁性特性。

在鐵磁性物質中,電子具有「自旋」,自旋產生磁矩。電子的自旋方向只有「向上」或「向下」,這就像生命遊戲中細胞的「生」或「死」。鄰近的電子會影響彼此的自旋方向,類似於細胞之間的互動。

易辛模型能用數學描述電子間的相互影響,並通過計算系統能量,得出自旋狀態的分佈。霍普菲爾德借用了這個概念,將神經元的互動視為電子自旋的互動。

他結合了康威生命遊戲的時間演化概念、易辛模型的能量計算,以及赫布理論的動態連結,創造了「霍普菲爾德網路」。這讓電腦能夠模擬生物大腦的學習過程。

-----廣告,請繼續往下閱讀-----

突破瓶頸:辛頓與波茲曼機

約翰·霍普菲爾德於1982年發明聯想神經網路,即「霍普菲爾網路」。圖/wikimedia

然而,霍普菲爾德網路並非完美。它容易陷入「局部最小值」的問題,無法找到系統的全局最優解。為了解決這個問題,加拿大計算機科學家傑佛瑞·辛頓(Geoffrey Hinton)提出了「波茲曼機」(Boltzmann Machine)。

辛頓將「模擬退火」的概念引入神經網路,允許系統以一定的機率跳出局部最小值,尋找全局最優解。他還引入了「隱藏層」的概念,將神經元分為「可見層」和「隱藏層」,提高了網路的學習能力。

受限波茲曼機(Restricted Boltzmann Machine)進一步簡化了模型,成為深度學習的基礎結構之一。這些創新使得 AI 能夠更有效地模擬人類的思維和學習過程。

AI 的未來:跨學科的融合

霍普菲爾德和辛頓的工作,將物理學的概念成功應用於人工智慧。他們的研究不僅解決了 AI 發展的瓶頸,還奠定了深度學習的基礎,對現代 AI 技術產生了深遠的影響。因此,2024 年諾貝爾物理學獎頒給他們,並非意外,而是對他們在跨學科領域的重大貢獻的肯定。

-----廣告,請繼續往下閱讀-----

AI 的發展,離不開物理學、生物學、數學等多學科的融合。霍普菲爾德和辛頓的工作,正是這種融合的典範。未來,隨著科學技術的進步,我們有理由相信,AI 將越來越接近人類的思維方式,甚至可能超越我們的想像。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

PanSci_96
1262 篇文章 ・ 2403 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

1
2

文字

分享

0
1
2
從昏迷到死亡錯覺:摩托車事故後的科塔爾症候群——《大腦獵奇偵探社》
行路出版_96
・2024/08/24 ・3933字 ・閱讀時間約 8 分鐘

-----廣告,請繼續往下閱讀-----

摩托車事故後的幻覺

一九八九年十月,二十八歲的股票經紀人,姑且稱之為威爾(Will),發生了嚴重的摩托車意外。他腦部受到重創,陷入昏迷,雖然幾天後恢復意識,但他在醫院裡住了好幾個月,治療腦傷以及其他損傷引起的感染。

到了隔年一月,威爾的復原情況非常良好,已經可準備出院。他的身上有些問題永遠好不了,例如右腿行動困難以及喪失部分視覺。但是最困擾他的問題發生在他的腦袋裡:他相當確定自己已經死了。威爾的母親為了幫助兒子早日康復,帶他去南非度假。但南非的炎熱讓威爾相信這個地方就是(真正的)地獄,因此更加確定自己必定是個死人。母親難以置信地問他是怎麼死的,他說了幾個可能的死因。有可能是血液感染(這是治療初期的風險),也有可能是他之前打黃熱病疫苗之後的併發症。此外他也提出自己可能死於愛滋病,雖然他沒有感染 HIV 病毒或愛滋病的任何跡象。

威爾康復出院,但堅信自己已經死亡。連他母親帶他去南非度假,都被他認為自己身在地獄。 圖/envato

有一種強烈的感覺纏上威爾,揮之不去─他覺得身旁所有東西都……這麼說好了……不是真的。車禍前熟悉的人和地方,他現在都不太認得,所以他愈發覺得自己住在一個奇怪又陌生的世界。連母親都不像真的母親。其實在南非度假的時候,威爾就曾這麼說過。他認為真正的母親在家裡睡覺,是她的靈魂陪伴他遊歷陰間。

喪失現實感:大腦如何捏造非理性的死亡解釋

四十六歲的茱莉亞(Julia)有嚴重的雙相情緒障礙症(bipolar disorder),入院時她相信自己的大腦和內臟都已消失。她覺得她早已不存在,只剩下一副空殼般的軀體。她的「自我」消失了,所以她(無論從哪個意義上看來都)是個死人。她不敢泡澡也不敢淋浴,因為怕自己空空如也的身體會滑進排水孔流走。

-----廣告,請繼續往下閱讀-----

三十五歲的凱文(Kevin)憂鬱的情況愈來愈嚴重,幾個月之後,腦海中的念頭漸漸演變成妄想。一開始,他懷疑家人正在密謀要對付他。接著,他認為自己已經死了,也已經下地獄,只是身體仍在人間。現在這副身體是空殼,裡面一滴血液也沒有。為了證明自己的想法沒錯,他從岳母家的廚房裡拿了一把刀,反覆戳刺手臂。他的家人明智地叫了救護車,將他送進醫院。

科塔爾症候群患者的大腦顯然有問題。發病之前,通常發生過嚴重的神經系統事故(中風、腫瘤、腦傷等等),或出現精神疾病(憂鬱症、雙相情緒障礙症、思覺失調症等等)。不過這些情況導致科塔爾症候群仍屬少見,神經科學家尚未找到明確原因,可以解釋科塔爾症候群患者的大腦為何如此與眾不同。再加上每個患者的症狀都不太一樣,判斷起來更加困難。話雖如此,有些共同症狀或許能提供蛛絲馬跡,幫助我們了解這種症候群。

科塔爾症候群的患者經常說,他們身處的世界莫名其妙變得很陌生。多數人看到自己曾邂逅多次的人事物時,大腦都能點燃辨認的火花,但這件事不會發生在科塔爾症候群的患者身上。舉例來說,患者可能認得母親的臉,但就是莫名的感到陌生。她似乎缺乏某種無形──但重要的─個人特質,所以患者即使看到這個生命中最重要的人,卻無法產生預期中的的情感反應。

患者也可能會有疏離感,彷彿自己是這世界的旁觀者,而不是參與者。術語叫做人格解離(depersonalization)。此外,周遭的一切都散發超現實的氣氛,讓患者相信自己生活在擬真的夢境裡─這是一種叫做喪失現實感(derealization,亦稱失實症)的症狀。科塔爾症候群患者體驗到的陌生感、人格解離、喪失現實感,都會嚴重扭曲他們眼中的現實世界。不難想像這會讓大腦難以負荷。

-----廣告,請繼續往下閱讀-----

大腦碰到如此矛盾的情況會拚命尋找原因。對大腦來說,能夠合理解釋各種生活事件是非常重要的。若找不到合理的解釋,世界很快就會變成無法預測、無法理解,最終變得無法忍受。因此為了清楚解釋所經歷的事情,大腦會無所不用其極。如果在經驗裡出現大腦難以合理解釋的元素,它會退而求其次:自己捏造合理的答案。

每個人的大腦都會這麼做,而且隨時隨地都在做,只是我們察覺不到。例如有研究發現,我們每天做的決定不計其數─從什麼時間吃點心,到要跟誰出去約會──但我們做這些決定時總是不假思索。我們好像大部分的時間都處於自動駕駛模式。可是每當有人問我們為什麼做這樣的決定時,大腦幾乎總能想出好答案來合理化我們的選擇。但有時候,它想出來的答案完全不合理。

有一項研究讓男女受試者看兩名女性的照片,請他們選出比較好看的那位。受試者做出決定之後,研究人員隨即將照片放在他們面前,要他們解釋為什麼選這個人。但受試者不知道的是,研究人員會偷偷調換照片(占比約二十%),要受試者解釋自己為什麼挑中這個(他們明明沒挑中的)人。大多數受試者都沒有識破研究人員的詭計。他們通常不會質疑照片上的人不是自己選的那個,而是當場想出合理的答案,說明為什麼覺得眼前照片上的人比較好看,例如「她看起來很辣」,或是「我覺得她比較有個性」(兩張照片差異甚大,所以受試者不是單純的認錯人)。

這種非刻意的捏造叫做虛談(confabulation),大腦做這件事的頻率比你以為的更高。虛談的原因可能有百百種,但這似乎是大腦遇到自己無法明確解釋的事件時,會使用的策略。神經科學家相信,科塔爾症候群患者的大腦也做了類似的事情。從這個角度來說,科塔爾症候群的起點,是前面提過的幾種狀況(例如創傷、腫瘤等等)導致大腦功能異常。

-----廣告,請繼續往下閱讀-----

大腦合理性檢查機制失靈

大腦功能異常導致現實感喪失與人格解離,進而使患者覺得周遭的一切很陌生,欠缺他們預期中的「真實感」。於是患者的大腦努力理解這樣的經驗,瘋狂尋找合理的解釋。基於不明原因,科塔爾症候群患者容易把注意力轉向內在,認為如果外在經驗不對勁,毛病可能出在自己身上。

結果基於某些更加不明的原因,大腦找到的解釋是他們已經死了、正在腐爛、被邪靈附體,或其他稀奇古怪的、與存在有關的原因。這一連串環環相扣的假設聽起來有點誇張。畢竟,喪失現實感這樣的症狀沒那麼少見;很多人(某些估計高達七十五%)會有類似的─但非常短暫的─喪失現實感的經驗。但有這種經驗的人,幾乎都不會認為自己已經死了。

顯然,科塔爾症候群患者的大腦裡還發生了別的事情。神經科學家相信,或許是重要的合理性檢查機制(plausibility-checking mechanism)沒有發揮作用。大腦偶爾會錯誤解讀生活裡發生的事,但我們通常不會想出一個明顯不合理的解釋。

或許是因為大腦錯誤解讀現實,讓科塔爾症患者對現實理解出現錯覺。 圖/envato

大腦似乎有一套用來評估邏輯的機制,確保我們的邏輯可以通過合理性的檢驗。在多數有過喪失現實感或人格解離等症狀的人身上,這套合理性檢查機制能使他們立刻否決「我感覺到自己脫離現實,是因為我已經死了」的想法;大腦認為這個提議很荒唐,很可能再也不會想起它。但是在科塔爾症候群的患者身上,這套合理性檢查機制顯然壞掉了。大腦將脫離現實的感覺歸因於他們已經死了,這個想法不知為何保留了下來,而大腦也認為這個解釋站得住腳。於是在其他人眼中絕對是妄想的念頭,成了他們深信不移的答案。

-----廣告,請繼續往下閱讀-----

醫生在為科塔爾症候群患者(以及後面會介紹的另外幾種行為古怪的精神障礙患者)尋找腦部損傷時,經常發現腦傷位於右腦。神經科學家因此假設合理性檢查機制位於右腦。大腦分為兩半,叫做大腦半球(cerebral hemispheres)。左腦半球和右腦半球的劃分簡單有力,因為有一道裂縫將大腦一分為二。乍看之下,左右兩邊一模一樣,但受過訓練的神經科學家用肉眼就能看出兩者並非完全對稱。透過顯微鏡觀察,差異更加顯著。因此左腦與右腦的功能有差異或許不足為奇。

長期以來,一直有人拿這些差異做文章,用錯誤的方式來解讀左腦和右腦的不同,以偏概全又過於誇大。例如斬釘截鐵地說,有些人較常使用右腦,也就是「右腦人」,所以擅長創意思考,「左腦人」則比較有邏輯。這是大家耳熟能詳的觀念,但神經科學家認為這只是迷思。實際上,我們使用大腦時不會特別偏左或偏右,而是完整使用兩個半腦。不過有些功能(例如語言的某些能力)會比較依賴某一個大腦半球。所以科塔爾症候群與右腦損傷有關的假設,並非全然不可能。

但科塔爾症候群(可能也包括合理性檢查機制)與右腦的關聯性依然只是假設,只不過許多(但不是所有)神經科學家深入研究過的科塔爾症候群案例,都支持這項觀察結果。無論合理性檢查機制確切位於何處,但在推演患者如何發展出科塔爾症候群的通用模型中,這個假設的機制扮演著重要角色。首先,大腦功能異常造成疏離症狀,例如喪失現實感與人格解離。大腦出於習慣,會先試著為眼前的情況找答案。問題是,仔細檢查並淘汰不合理答案的能力也受損了,於是大腦只好捏造稀奇古怪的答案,告訴自己身體已經死了(或是邪靈附體、正在腐爛等等),而且不會因為這個答案不合理而淘汰它。

有人認為,這種階段性的妄想形成過程也適用於另一些妄想症。這些妄想症的症狀也很古怪,不亞於科塔爾症候群。

-----廣告,請繼續往下閱讀-----

——本文摘自《大腦獵奇偵探社:狼人、截肢癖、多重人格到集體中邪,100個讓你洞察人性的不思議腦科學案例》,2024 年 7 月,行路出版,未經同意請勿轉載。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

行路出版_96
21 篇文章 ・ 8 位粉絲
行路為「讀書共和國」出版集團旗下新創的出版社,出版知識類且富科普或哲普內涵的書籍,科學類中尤其將長期耕耘「心理學+腦科學」領域重要、具時代意義,足以當教材的出版品。 行路臉書專頁:https://www.facebook.com/WalkPublishing