Loading [MathJax]/extensions/tex2jax.js

0

0
0

文字

分享

0
0
0

美國新總統川普該上的六堂科學課(下)

鄭國威 Portnoy_96
・2016/11/08 ・3794字 ・閱讀時間約 7 分鐘 ・SR值 564 ・九年級

-----廣告,請繼續往下閱讀-----

川普當選第四十五任美國總統。圖/By Gage Skidmore, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=38720271
川普當選第四十五任美國總統。圖/By Gage Skidmore, CC BY-SA 3.0, wikimedia commons.

11/9 更新:美國人民已經做出選擇,川普當選第四十五任美國總統,本文標題隨之更改。

編譯 / 鄭國威

在台灣的我們雖然只是隔山觀虎鬥,但這次美國總統大選真的是史無前例大亂鬥,而且不管鬥勝的人是誰,當上總統後,勢必在全球掀起極大的海嘯,台灣也是波及的範圍,應該算是「海景第一排」。因為政治牽動著政策,而科學時常淪為犧牲品或玩物。如今結果已經揭曉,川普當選。我們再一起看看《科學》期刊給下一任美國總統的六堂課,如果你還沒看過上篇,請先看完再接著看這篇!

接下來三堂課,分別是「痴」、「智」、「直」

第四堂課:昂貴的「痴」心

Brain lifting barbell. Mind power concept.

「大腦是個好東西,每個人都該有一個。」

我們愛說這略帶調侃意味的句子,來回應生活中那些難以溝通、理解的人事物,其實我們自己的大腦也都面臨著「淡出」與「漸弱」的風險,誰也說不準哪一天我們會否也成為電影《我想念我自己》的故事主角。

-----廣告,請繼續往下閱讀-----

隨著電腦演算力大規模提升,光遺傳學(Optogenetics)等多種新工具加速發展,研究人員對大腦理解越來越深。大腦裡 860 億個神經元彼此之間有數以兆計的連結,控制我們如何理解、記憶、運動、跟睡眠,而我們的經驗、生活型態、受過的傷害和疾病,都在不斷重新雕塑神經元網絡。過去曾以為神經元數量在出生後就不會變了,但現在我們知道某些腦區的神經元會持續生長。現在,研究者已經能夠調控神經元並觀察他們運作的即時樣貌。

《科學》期刊指出到 2025 年,可能多達 7 百萬美國人都受阿茲海默症之擾。
《科學》期刊指出到 2025 年,可能多達 7 百萬美國人都受阿茲海默症之擾。

要是我們的大腦生病,很難避免鉅額的開支,個人與政府的負荷都很重。《科學》期刊指出到 2025 年,可能多達 7 百萬美國人都受阿茲海默症之擾,導致記憶力下降、性格改變、理智不再,受苦而終。在 2016 年,為了醫治與照料阿茲海默症與其他較罕見的失智症患者,總花費就達到 2360 億美元,其中政府的健康方案就負擔其中的三分之二。老年人這端尚且如此,幼童這端的大腦問題又是另一番挑戰,從 2002 年到 2012 年,自閉症的患病率增加了 123% ,每 68 名美國兒童中,就有 1 位有自閉症,而因此,這些家庭每年估計得花 60,000 美元來應對。

腦的問題不僅於此,例如,學校裡學生的學習障礙已經是一個大問題、無家可歸者、吸毒者、監獄的囚犯罹患精神疾病越來越普遍,運動員的腦震盪不容輕忽,從戰場上歸來的美國軍人同時面對生理上的腦創傷和心理上的創傷後遺症,這些問題都有賴更有效的診斷跟治療,帶來更大的改善。

美國總統歐巴馬所開啟的「BRAIN Initiative」計畫是否能在新總統上任後持續運作,仍有待觀察。圖/Open Knowledge@flickr
美國總統歐巴馬所開啟的「BRAIN Initiative」計畫是否能在新總統上任後持續運作,仍有待觀察。圖/Open Knowledge@flickr

下一任美國總統需要擬定計畫,提升照顧老年人腦部疾病的支出,並決定腦研究預算的優先分配。2014 年以來,美國聯邦機構花在歐巴馬政府提出的「先進創新神經科技腦研究計畫」Brain Research through Advancing Innovative Neurotechnologies Initiative,簡稱 BRAIN Initiative)上投入了 7.5 億美元,下一任政府要決定接下來是要繼續還是改弦易轍,另一方面倡議團體也在積極運作,希望政府投入更多研究經費來解決從腦癌到阿茲海默症等各種腦的大哉問。

-----廣告,請繼續往下閱讀-----

2016 年投入在阿茲海默症上的資金增長了大約 3.5 億美元,明年美國國會預期將支持同規模的增長,而同時,許多執法機構正在找更多資金,來支持監獄與刑事司法程序相關的精神健康計畫,這代表下一任美國總統要能在反擴增預算的氛圍下,平衡這些相互競爭資源的計畫,尤其是在諸於醫療保險計劃強制支出日益增加,可用資金受限的前提下。這動輒得咎的處境,有請下一任美國總統川普好好思量。

第五堂課:淘汰工人的人工「智」慧

hand-697264_640

「那一天,人類終於回想起了,曾經一度被他們所支配的恐怖,還有被囚禁於鳥籠中的那份屈辱。」

這是《進擊的巨人》中的經典名句,也很適合用來替人工智慧時代揭幕。

日益強大的處理器,搭配上能夠從海量數據與現實世界中尋找模式的複雜演算法,讓人工智慧的許諾從科幻一步步落實在我們的生活,例如你的電話現在聽得懂你在說什麼,你的車子可以自己上路(或許還能幫你判斷對方車子板金厚度)。而今年三月,Google 的 AlphaGo 擊敗韓國圍棋棋王,跌破許多 AI 專家的護目鏡。現在 AI 更能準確識別圖像、協助作出投資決策、控制交通流量與能源系統,或者讓廣告主投放更精準的廣告等。

AlphaGo 與南韓棋士李世乭的對弈實況截圖。圖/Prachatai@flickr
AlphaGo 與南韓棋士李世乭的對弈實況截圖。圖/Prachatai@flickr

儘管專家表示,要做出能比肩人類的人工智慧還要好幾十年,但一些特定用途的 AI 應用已經對社會產生影響,例如無人自動駕駛車、醫療指導機器人等等,可以提高勞動效率、創造利潤豐厚的新市場,減少交通事故傷亡與看病時的誤診。

-----廣告,請繼續往下閱讀-----

有令人引頸期盼的一面,也有麻煩的一面。更多的公司將採用 AI 取代員工,越低階的工作越可能被淘汰,經濟階級上的不平等可能因此加劇。另外,我們將決策權交給機器,也會帶來複雜的倫理、法律跟監管問題。無人自駕車出車禍,誰負責?軟體搞砸了投資組合,找誰賠?傳感器在錯誤的時間切換紅綠燈,誰的錯? 更別提戰場上的自主殺傷性武器了,槍砲自己開火了之後,誰扛?

下一任美國總統將做出許多關於人工智慧的決定,舉例來說,眾多企業都迫不及待想讓每條路上都跑著自駕車,每片天空都飛著無人機,因此希望美國聯邦監管機構可以趕快把規定講清楚說明白。另外,美國政府該投資多少錢在研究人工智慧上呢?目前每年投資約十億美金,夠不夠?政府也必須密切關注人工智慧對經濟、勞動、和國家安全的影響,不然一旦出大包,波及的可能是全地球。

第六堂課:對風險的「直」覺反應才危險

big-data-1667184_640

專家預測風險,靠得是數據,而普通人則多半靠直覺,但兩者都可以「騙」很大。

奧瑞岡大學的風險心理學研究者保羅斯洛維克(Paul Slovic)認為兩種形式都有利,亦有弊。靠直覺的問題很顯著,例如我們會高估駭人事物出現的機率,並且低估我們已經熟悉的風險事故,例如 911 恐怖攻擊之後,恐怖份子又奪走了數百名美國人的生命,很恐怖對吧?但在同一段時間,死於汽車事故的人超過 50 萬,死於心臟病的約有 8 百萬,這些更大規模的致死原因我們倒是習以為常。

好吧,或許恐怖攻擊跟汽車肇事與心臟病無法相提並論,但你會發現,我們對於其他人道危機,如數十萬人正在經歷的飢餓、貧窮、與喪生,其實也蠻無感的。斯洛維克認為我們對這類大災難數據的反應太輕微。另外,像是氣候變遷導致的經濟問題、公共衛生衝擊,這種緩慢發展且影響的地區很廣的威脅,我們也總是低估。因此,下一任美國總統起碼要明白別靠著直覺的評估來辨識風險的程度。

-----廣告,請繼續往下閱讀-----

另一方面,專家的風險評估有時就像披上數學外衣的謊言,因為下判斷的那刻,專家也得決定哪些數字才是要緊的,以及要用什麼方式來表達風險的程度。

舉例來說,如果有毒化學物質外洩,專家可能僅以預期死亡人數來描述風險,而這數字通常看起來很小,但換個方式,若改用罹患某種罕見癌症的機率可能會提升多少來描述風險,這數字看起來就會很大,而造成的公眾認知也會截然不同。專家自己也可能有各自的偏頗跟意圖推動的目的,從而影響了我們對風險的認知。

對一位總統來說,若對風險有錯誤的認知,將造成反應過度或反應不夠,有可能因此搞了一些只是讓人們感覺良好,但其實要花大錢又沒效率的政策,更別提可能造成禍害。

總統與公眾溝通風險的方式,就是在散播恐慌與維持社會冷靜之間做選擇。

若能預先、實事求是地做好風險溝通,而非承諾做到百分百保障,更能幫助人們做好準備,以面對無法避免的災難。總會有人要求過度的政策來應對威脅,唯有做好風險溝通,才能減少這種要求。

要做到這點,公眾得要信任這位總統,而我們都知道公眾信任難以掌握,「得之我幸,不得我命」。《科學》期刊建議準總統學學風險心理學,免得撞上民意之牆。畢竟各種已知的風險議題(恐攻、國際紛爭、國內犯罪暴力、流感與傳染病、自然災害)就已經夠累了,虎視眈眈的新科技議題(DNA 編輯、無人自駕車)又即將撲來,未來美國總統的重要任務就是正確地評估風險、與公眾溝通、提出有感的政策贏得選民、產業、以及從地方到聯邦的議員支持。

-----廣告,請繼續往下閱讀-----
圖/By Image by VectorOpenStock.com, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=50667044
圖/By Image by VectorOpenStock.com, CC BY 3.0, wikimedia commons.

沒有完美的政治人物,這次的美國總統當選人川普顯然也離完美很遠,但像美國這等大國,其決策仍將會影響台灣以及全世界,就讓我們密切關注,期待新美國總統川普會怎麼做吧!

  • 《科學》也用簡單的影片來總結這六堂課,直接點擊觀看!

 

原始報導:David Malakoff & Jeffrey Mervis, Science lessons for the next president, Science, 2016.10.20.

-----廣告,請繼續往下閱讀-----
文章難易度
鄭國威 Portnoy_96
247 篇文章 ・ 1298 位粉絲
是那種小時候很喜歡看科學讀物,以為自己會成為科學家,但是長大之後因為數理太爛,所以早早放棄科學夢的無數人其中之一。怎知長大後竟然因為諸般因由而重拾科學,與夥伴共同創立泛科學。

0

1
0

文字

分享

0
1
0
數智驅動未來:從信任到執行,AI 為企業創新賦能
鳥苷三磷酸 (PanSci Promo)_96
・2025/01/13 ・4938字 ・閱讀時間約 10 分鐘

-----廣告,請繼續往下閱讀-----

本文由 鼎新數智 與 泛科學 共同規劃與製作

你有沒有想過,當 AI 根據病歷與 X 光片就能幫你診斷病症,或者決定是否批准貸款,甚至從無人機發射飛彈時,它的每一步「決策」是怎麼來的?如果我們不能知道 AI 的每一個想法步驟,對於那些 AI 輔助的診斷和判斷,要我們如何放心呢?

馬斯克與 OpenAI 的奧特曼鬧翻後,創立了新 AI 公司 xAI,並推出名為 Grok 的產品。他宣稱目標是以開源和可解釋性 AI 挑戰其他模型,而 xAI 另一個意思是 Explainable AI 也就是「可解釋性 AI」。

如今,AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?

-----廣告,請繼續往下閱讀-----
AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?圖/pexels

黑盒子模型背後的隱藏秘密

無法解釋的 AI 究竟會帶來多少問題?試想,現在許多銀行和貸款機構已經使用 AI 評估借貸申請者的信用風險,但這些模型往往如同黑箱操作。有人貸款被拒,卻完全不知原因,感覺就像被分手卻不告訴理由。更嚴重的是,AI 可能擅自根據你的住所位置或社會經濟背景給出負面評價,這些與信用風險真的相關嗎?這種不透明性只會讓弱勢群體更難融入金融體系,加劇貧富差距。這種不透明性,會讓原本就已經很難融入金融體系的弱勢群體,更加難以取得貸款,讓貧富差距越來越大,雪上加霜。

AI 不僅影響貸款,還可能影響司法公正性。美國部分法院自 2016 年起使用「替代性制裁犯罪矯正管理剖析軟體」 COMPAS 這款 AI 工具來協助量刑,試圖預測嫌犯再犯風險。然而,這些工具被發現對有色人種特別不友好,往往給出偏高的再犯風險評估,導致更重的刑罰和更嚴苛的保釋條件。更令人擔憂的是,這些決策缺乏透明度,AI 做出的決策根本沒法解釋,這讓嫌犯和律師無法查明問題根源,結果司法公正性就這麼被悄悄削弱了。

此外,AI 在醫療、社交媒體、自駕車等領域的應用,也充滿類似挑戰。例如,AI 協助診斷疾病,但若原因報告無法被解釋,醫生和患者又怎能放心?同樣地,社群媒體或是 YouTube 已經大量使用 AI 自動審查,以及智慧家居或工廠中的黑盒子問題,都像是一場越來越複雜的魔術秀——我們只看到結果,卻無法理解過程。這樣的情況下,對 AI 的信任感就成為了一個巨大的挑戰。

為什麼人類設計的 AI 工具,自己卻無法理解?

原因有二。首先,深度學習模型結構複雜,擁有數百萬參數,人類要追蹤每個輸入特徵如何影響最終決策結果,難度極高。例如,ChatGPT 中的 Transformer 模型,利用注意力機制(Attention Mechanism)根據不同詞之間的重要性進行特徵加權計算,因為機制本身涉及大量的矩陣運算和加權計算,這些數學操作使得整個模型更加抽象、不好理解。

-----廣告,請繼續往下閱讀-----

其次,深度學習模型會會從資料中學習某些「特徵」,你可以當作 AI 是用畫重點的方式在學習,人類劃重點目的是幫助我們加速理解。AI 的特徵雖然也能幫助 AI 學習,但這些特徵往往對人類來說過於抽象。例如在影像辨識中,人類習慣用眼睛、嘴巴的相對位置,或是手指數量等特徵來解讀一張圖。深度學習模型卻可能會學習到一些抽象的形狀或紋理特徵,而這些特徵難以用人類語言描述。

深度學習模型通常採用分佈式表示(Distributed Representation)來編碼特徵,意思是將一個特徵表示為一個高維向量,每個維度代表特徵的不同方面。假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。對 AI 而言,這是理解世界的方式,但對人類來說,卻如同墨跡測驗般難以解讀。

假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。圖/unsplash

試想,AI 協助診斷疾病時,若理由是基於醫生都無法理解的邏輯,患者即使獲得正確診斷,也會感到不安。畢竟,人們更相信能被理解的東西。

打開黑盒子:可解釋 AI 如何運作?我們要如何教育 AI?

首先,可以利用熱圖(heatmap)或注意力圖這類可視化技術,讓 AI 的「思維」有跡可循。這就像行銷中分析消費者的視線停留在哪裡,來推測他們的興趣一樣。在卷積神經網絡和 Diffusion Models 中 ,當 AI 判斷這張照片裡是「貓」還是「狗」時,我需要它向我們展示在哪些地方「盯得最緊」,像是耳朵的形狀還是毛色的分布。

-----廣告,請繼續往下閱讀-----

其次是局部解釋,LIME 和 SHAP 是兩個用來發展可解釋 AI 的局部解釋技術。

SHAP 的概念來自博弈,它將每個特徵看作「玩家」,而模型的預測結果則像「收益」。SHAP 會計算每個玩家對「收益」的貢獻,讓我們可以了解各個特徵如何影響最終結果。並且,SHAP 不僅能透過「局部解釋」了解單一個結果是怎麼來的,還能透過「全局解釋」理解模型整體的運作中,哪些特徵最重要。

以實際的情景來說,SHAP 可以讓 AI 診斷出你有某種疾病風險時,指出年齡、體重等各個特徵的影響。

LIME 的運作方式則有些不同,會針對單一個案建立一個簡單的模型,來近似原始複雜模型的行為,目的是為了快速了解「局部」範圍內的操作。比如當 AI 拒絕你的貸款申請時,LIME 可以解釋是「收入不穩定」還是「信用紀錄有問題」導致拒絕。這種解釋在 Transformer 和 NLP 應用中廣泛使用,一大優勢是靈活且計算速度快,適合臨時分析不同情境下的 AI 判斷。比方說在醫療場景,LIME 可以幫助醫生理解 AI 為何推薦某種治療方案,並說明幾個主要原因,這樣醫生不僅能更快做出決策,也能增加患者的信任感。

-----廣告,請繼續往下閱讀-----

第三是反事實解釋:如果改變一點點,會怎麼樣?

如果 AI 告訴你:「這家銀行不會貸款給你」,這時你可能會想知道:是收入不夠,還是年齡因素?這時你就可以問 AI:「如果我年輕五歲,或者多一份工作,結果會怎樣?」反事實解釋會模擬這些變化對結果的影響,讓我們可以了解模型究竟是如何「權衡利弊」。

最後則是模型內部特徵的重要性排序。這種方法能顯示哪些輸入特徵對最終結果影響最大,就像揭示一道菜中,哪些調味料是味道的關鍵。例如在金融風險預測中,模型可能指出「收入」影響了 40%,「消費習慣」占了 30%,「年齡」占了 20%。不過如果要應用在像是 Transformer 模型等複雜結構時,還需要搭配前面提到的 SHAP 或 LIME 以及可視化技術,才能達到更完整的解釋效果。

講到這裡,你可能會問:我們距離能完全信任 AI 還有多遠?又或者,我們真的應該完全相信它嗎?

-----廣告,請繼續往下閱讀-----

我們終究是想解決人與 AI 的信任問題

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。因此,AI 既要「可解釋」,也要「能代理」。

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。圖/unsplash

舉例來說,當一家公司要做一個看似「簡單」的決策時,背後的過程其實可能極為複雜。例如,快時尚品牌決定是否推出新一季服裝,不僅需要考慮過去的銷售數據,還得追蹤熱門設計趨勢、天氣預測,甚至觀察社群媒體上的流行話題。像是暖冬來臨,厚外套可能賣不動;或消費者是否因某位明星愛上一種顏色,這些細節都可能影響決策。

這些數據來自不同部門和來源,龐大的資料量與錯綜關聯使企業判斷變得困難。於是,企業常希望有個像經營大師的 AI 代理人,能吸收數據、快速分析,並在做決定時不僅給出答案,還能告訴你「為什麼要這麼做」。

傳統 AI 像個黑盒子,而可解釋 AI (XAI)則清楚解釋其判斷依據。例如,為什麼不建議推出厚外套?可能理由是:「根據天氣預測,今年暖冬概率 80%,過去三年數據顯示暖冬時厚外套銷量下降 20%。」這種透明解釋讓企業更信任 AI 的決策。

-----廣告,請繼續往下閱讀-----

但會解釋還不夠,AI 還需能真正執行。這時,就需要另一位「 AI 代理人」上場。想像這位 AI 代理人是一位「智慧產品經理」,大腦裝滿公司規則、條件與行動邏輯。當客戶要求變更產品設計時,這位產品經理不會手忙腳亂,而是按以下步驟行動:

  1. 檢查倉庫物料:庫存夠不夠?有沒有替代料可用?
  2. 評估交期影響:如果需要新物料,供應商多快能送到?
  3. 計算成本變化:用新料會不會超出成本預算?
  4. 做出最優判斷,並自動生成變更單、工單和採購單,通知各部門配合執行。

這位 AI 代理人不僅能自動處理每個環節,還會記錄每次決策結果,學習如何變得更高效。隨時間推移,這位「智慧產品經理」的判斷將更聰明、決策速度更快,幾乎不需人工干預。更重要的是,這些判斷是基於「以終為始」的原則,為企業成長目標(如 Q4 業績增長 10%)進行連續且動態地自我回饋,而非傳統系統僅月度檢核。

這兩位 AI 代理人的合作,讓企業決策流程不僅透明,還能自動執行。這正是數智驅動的核心,不僅依靠數據驅動決策,還要能解釋每一個選擇,並自動行動。這個過程可簡化為 SUPA,即「感知(Sensing)→ 理解(Understanding)→ 規劃(Planning)→ 行動(Acting)」的閉環流程,隨著數據的變化不斷進化。

偉勝乾燥工業為例,他們面臨高度客製化與訂單頻繁變更的挑戰。導入鼎新 METIS 平台後,偉勝成功將數智驅動融入業務與產品開發,專案準時率因此提升至 80%。他們更將烤箱技術與搬運機器人結合,開發出新形態智慧化設備,成功打入半導體產業,帶動業績大幅成長,創造下一個企業的增長曲線。

-----廣告,請繼續往下閱讀-----

值得一提的是,數智驅動不僅帶動業務增長,還讓員工擺脫繁瑣工作,讓工作更輕鬆高效。

數智驅動的成功不僅依賴技術,還要與企業的商業策略緊密結合。為了讓數智驅動真正發揮作用,企業首先要確保它服務於具體的業務需求,而不是為了技術而技術。

這種轉型需要有策略、文化和具體應用場景的支撐,才能讓數智驅動真正成為企業持續增長的動力。

還在猶豫數智驅動的威力?免費上手企業 AI 助理!👉 企業 AI 體驗
現在使用專屬邀請碼《 KP05 》註冊就享知:https://lihi.cc/EDUk4
訂閱泛科學獨家知識頻道,深入科技趨勢與議題內容。

👉立即免費加入

-----廣告,請繼續往下閱讀-----
鳥苷三磷酸 (PanSci Promo)_96
222 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

1
0

文字

分享

0
1
0
AI 能像人類一樣思考?諾貝爾物理學獎研究助力人工智慧模擬人類大腦
PanSci_96
・2024/11/14 ・2117字 ・閱讀時間約 4 分鐘

-----廣告,請繼續往下閱讀-----

即使再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?畢竟電腦的電子元件和我們大腦中的神經細胞結構截然不同。再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?

錯,可以。

2024 年諾貝爾物理學獎跌破所有專家的眼鏡,頒給了兩位研究機器學習的科學家——約翰·霍普菲爾德(John Hopfield)和傑佛瑞·辛頓(Geoffrey Hinton)。他們以「人工」的方法打造了類神經網路,最終模擬出生物的「智慧」,奠定了當代深度學習的基礎。

為什麼解決人工智慧發展瓶頸的,竟然會是物理學?物理要怎麼讓 AI 更像人類?

-----廣告,請繼續往下閱讀-----
歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

從巴甫洛夫的狗到赫布理論:理解學習的基礎

為了解答這個疑問,我們需要一些背景知識。

20 世紀初,俄羅斯心理學家巴甫洛夫發現,狗在食物還沒入口前,就會開始分泌唾液。他進行了一系列實驗,改變食物出現前的環境,比如讓狗習慣在聽到鈴聲後馬上得到食物。久而久之,狗只要聽到鈴聲,就會開始分泌唾液。

大約 50 年後,神經科學家赫布(Donald Hebb)提出了一個假說:大腦中相近的神經元,因為經常同時放電,會產生更強的連結。這種解釋稱為「赫布理論」,不僅奠定了神經心理學的發展,更成為現代深度學習的基礎。

然而,赫布理論雖然描述了鄰近神經元的關係,卻無法解釋大腦如何建構出如此複雜的聯想網路。

-----廣告,請繼續往下閱讀-----

霍普菲爾德網路:物理學家對神經網路的貢獻

然而,赫布理論雖能描述神經元之間的關係,卻缺乏數學模型。物理學家約翰·霍普菲爾德從數學家約翰·康威(John Conway)的「生命遊戲」(Game of Life)中獲得靈感,試圖建立一個可以在電腦上運行的記憶系統。

霍普菲爾德受「生命遊戲」啟發,嘗試建立電腦記憶系統。圖/envato

「生命遊戲」由數學家康威(John Conway)發明,玩家開始時有一個棋盤,每個格子代表一個細胞,細胞可以是「活」或「死」的狀態。根據特定規則,細胞會根據鄰居的狀態決定下一次的生存狀態。康威的目的是展示複雜的系統不一定需要複雜的規則。

霍普菲爾德發現,這個遊戲與赫布理論有強大的關聯性。大腦中的大量神經元,在出生時處於初始狀態,經過刺激後,神經元間的連結會產生或斷裂,形成強大的記憶系統。他希望利用這些理論,創造一個能在電腦上運行的記憶系統。

然而,他面臨一個難題:赫布理論沒有明確的數學模型來決定神經元連結的規則。而在電腦上運行,必須要有明確的數學規則。

-----廣告,請繼續往下閱讀-----

物理學的啟發:易辛模型

霍普菲爾德從物理學的研究中找到了類似的模型:易辛模型(Ising Model)。這個模型用於解釋鐵磁性物質的磁性特性。

在鐵磁性物質中,電子具有「自旋」,自旋產生磁矩。電子的自旋方向只有「向上」或「向下」,這就像生命遊戲中細胞的「生」或「死」。鄰近的電子會影響彼此的自旋方向,類似於細胞之間的互動。

易辛模型能用數學描述電子間的相互影響,並通過計算系統能量,得出自旋狀態的分佈。霍普菲爾德借用了這個概念,將神經元的互動視為電子自旋的互動。

他結合了康威生命遊戲的時間演化概念、易辛模型的能量計算,以及赫布理論的動態連結,創造了「霍普菲爾德網路」。這讓電腦能夠模擬生物大腦的學習過程。

-----廣告,請繼續往下閱讀-----

突破瓶頸:辛頓與波茲曼機

約翰·霍普菲爾德於1982年發明聯想神經網路,即「霍普菲爾網路」。圖/wikimedia

然而,霍普菲爾德網路並非完美。它容易陷入「局部最小值」的問題,無法找到系統的全局最優解。為了解決這個問題,加拿大計算機科學家傑佛瑞·辛頓(Geoffrey Hinton)提出了「波茲曼機」(Boltzmann Machine)。

辛頓將「模擬退火」的概念引入神經網路,允許系統以一定的機率跳出局部最小值,尋找全局最優解。他還引入了「隱藏層」的概念,將神經元分為「可見層」和「隱藏層」,提高了網路的學習能力。

受限波茲曼機(Restricted Boltzmann Machine)進一步簡化了模型,成為深度學習的基礎結構之一。這些創新使得 AI 能夠更有效地模擬人類的思維和學習過程。

AI 的未來:跨學科的融合

霍普菲爾德和辛頓的工作,將物理學的概念成功應用於人工智慧。他們的研究不僅解決了 AI 發展的瓶頸,還奠定了深度學習的基礎,對現代 AI 技術產生了深遠的影響。因此,2024 年諾貝爾物理學獎頒給他們,並非意外,而是對他們在跨學科領域的重大貢獻的肯定。

-----廣告,請繼續往下閱讀-----

AI 的發展,離不開物理學、生物學、數學等多學科的融合。霍普菲爾德和辛頓的工作,正是這種融合的典範。未來,隨著科學技術的進步,我們有理由相信,AI 將越來越接近人類的思維方式,甚至可能超越我們的想像。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

PanSci_96
1262 篇文章 ・ 2408 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

1
2

文字

分享

0
1
2
從昏迷到死亡錯覺:摩托車事故後的科塔爾症候群——《大腦獵奇偵探社》
行路出版_96
・2024/08/24 ・3933字 ・閱讀時間約 8 分鐘

-----廣告,請繼續往下閱讀-----

摩托車事故後的幻覺

一九八九年十月,二十八歲的股票經紀人,姑且稱之為威爾(Will),發生了嚴重的摩托車意外。他腦部受到重創,陷入昏迷,雖然幾天後恢復意識,但他在醫院裡住了好幾個月,治療腦傷以及其他損傷引起的感染。

到了隔年一月,威爾的復原情況非常良好,已經可準備出院。他的身上有些問題永遠好不了,例如右腿行動困難以及喪失部分視覺。但是最困擾他的問題發生在他的腦袋裡:他相當確定自己已經死了。威爾的母親為了幫助兒子早日康復,帶他去南非度假。但南非的炎熱讓威爾相信這個地方就是(真正的)地獄,因此更加確定自己必定是個死人。母親難以置信地問他是怎麼死的,他說了幾個可能的死因。有可能是血液感染(這是治療初期的風險),也有可能是他之前打黃熱病疫苗之後的併發症。此外他也提出自己可能死於愛滋病,雖然他沒有感染 HIV 病毒或愛滋病的任何跡象。

威爾康復出院,但堅信自己已經死亡。連他母親帶他去南非度假,都被他認為自己身在地獄。 圖/envato

有一種強烈的感覺纏上威爾,揮之不去─他覺得身旁所有東西都……這麼說好了……不是真的。車禍前熟悉的人和地方,他現在都不太認得,所以他愈發覺得自己住在一個奇怪又陌生的世界。連母親都不像真的母親。其實在南非度假的時候,威爾就曾這麼說過。他認為真正的母親在家裡睡覺,是她的靈魂陪伴他遊歷陰間。

喪失現實感:大腦如何捏造非理性的死亡解釋

四十六歲的茱莉亞(Julia)有嚴重的雙相情緒障礙症(bipolar disorder),入院時她相信自己的大腦和內臟都已消失。她覺得她早已不存在,只剩下一副空殼般的軀體。她的「自我」消失了,所以她(無論從哪個意義上看來都)是個死人。她不敢泡澡也不敢淋浴,因為怕自己空空如也的身體會滑進排水孔流走。

-----廣告,請繼續往下閱讀-----

三十五歲的凱文(Kevin)憂鬱的情況愈來愈嚴重,幾個月之後,腦海中的念頭漸漸演變成妄想。一開始,他懷疑家人正在密謀要對付他。接著,他認為自己已經死了,也已經下地獄,只是身體仍在人間。現在這副身體是空殼,裡面一滴血液也沒有。為了證明自己的想法沒錯,他從岳母家的廚房裡拿了一把刀,反覆戳刺手臂。他的家人明智地叫了救護車,將他送進醫院。

科塔爾症候群患者的大腦顯然有問題。發病之前,通常發生過嚴重的神經系統事故(中風、腫瘤、腦傷等等),或出現精神疾病(憂鬱症、雙相情緒障礙症、思覺失調症等等)。不過這些情況導致科塔爾症候群仍屬少見,神經科學家尚未找到明確原因,可以解釋科塔爾症候群患者的大腦為何如此與眾不同。再加上每個患者的症狀都不太一樣,判斷起來更加困難。話雖如此,有些共同症狀或許能提供蛛絲馬跡,幫助我們了解這種症候群。

科塔爾症候群的患者經常說,他們身處的世界莫名其妙變得很陌生。多數人看到自己曾邂逅多次的人事物時,大腦都能點燃辨認的火花,但這件事不會發生在科塔爾症候群的患者身上。舉例來說,患者可能認得母親的臉,但就是莫名的感到陌生。她似乎缺乏某種無形──但重要的─個人特質,所以患者即使看到這個生命中最重要的人,卻無法產生預期中的的情感反應。

患者也可能會有疏離感,彷彿自己是這世界的旁觀者,而不是參與者。術語叫做人格解離(depersonalization)。此外,周遭的一切都散發超現實的氣氛,讓患者相信自己生活在擬真的夢境裡─這是一種叫做喪失現實感(derealization,亦稱失實症)的症狀。科塔爾症候群患者體驗到的陌生感、人格解離、喪失現實感,都會嚴重扭曲他們眼中的現實世界。不難想像這會讓大腦難以負荷。

-----廣告,請繼續往下閱讀-----

大腦碰到如此矛盾的情況會拚命尋找原因。對大腦來說,能夠合理解釋各種生活事件是非常重要的。若找不到合理的解釋,世界很快就會變成無法預測、無法理解,最終變得無法忍受。因此為了清楚解釋所經歷的事情,大腦會無所不用其極。如果在經驗裡出現大腦難以合理解釋的元素,它會退而求其次:自己捏造合理的答案。

每個人的大腦都會這麼做,而且隨時隨地都在做,只是我們察覺不到。例如有研究發現,我們每天做的決定不計其數─從什麼時間吃點心,到要跟誰出去約會──但我們做這些決定時總是不假思索。我們好像大部分的時間都處於自動駕駛模式。可是每當有人問我們為什麼做這樣的決定時,大腦幾乎總能想出好答案來合理化我們的選擇。但有時候,它想出來的答案完全不合理。

有一項研究讓男女受試者看兩名女性的照片,請他們選出比較好看的那位。受試者做出決定之後,研究人員隨即將照片放在他們面前,要他們解釋為什麼選這個人。但受試者不知道的是,研究人員會偷偷調換照片(占比約二十%),要受試者解釋自己為什麼挑中這個(他們明明沒挑中的)人。大多數受試者都沒有識破研究人員的詭計。他們通常不會質疑照片上的人不是自己選的那個,而是當場想出合理的答案,說明為什麼覺得眼前照片上的人比較好看,例如「她看起來很辣」,或是「我覺得她比較有個性」(兩張照片差異甚大,所以受試者不是單純的認錯人)。

這種非刻意的捏造叫做虛談(confabulation),大腦做這件事的頻率比你以為的更高。虛談的原因可能有百百種,但這似乎是大腦遇到自己無法明確解釋的事件時,會使用的策略。神經科學家相信,科塔爾症候群患者的大腦也做了類似的事情。從這個角度來說,科塔爾症候群的起點,是前面提過的幾種狀況(例如創傷、腫瘤等等)導致大腦功能異常。

-----廣告,請繼續往下閱讀-----

大腦合理性檢查機制失靈

大腦功能異常導致現實感喪失與人格解離,進而使患者覺得周遭的一切很陌生,欠缺他們預期中的「真實感」。於是患者的大腦努力理解這樣的經驗,瘋狂尋找合理的解釋。基於不明原因,科塔爾症候群患者容易把注意力轉向內在,認為如果外在經驗不對勁,毛病可能出在自己身上。

結果基於某些更加不明的原因,大腦找到的解釋是他們已經死了、正在腐爛、被邪靈附體,或其他稀奇古怪的、與存在有關的原因。這一連串環環相扣的假設聽起來有點誇張。畢竟,喪失現實感這樣的症狀沒那麼少見;很多人(某些估計高達七十五%)會有類似的─但非常短暫的─喪失現實感的經驗。但有這種經驗的人,幾乎都不會認為自己已經死了。

顯然,科塔爾症候群患者的大腦裡還發生了別的事情。神經科學家相信,或許是重要的合理性檢查機制(plausibility-checking mechanism)沒有發揮作用。大腦偶爾會錯誤解讀生活裡發生的事,但我們通常不會想出一個明顯不合理的解釋。

或許是因為大腦錯誤解讀現實,讓科塔爾症患者對現實理解出現錯覺。 圖/envato

大腦似乎有一套用來評估邏輯的機制,確保我們的邏輯可以通過合理性的檢驗。在多數有過喪失現實感或人格解離等症狀的人身上,這套合理性檢查機制能使他們立刻否決「我感覺到自己脫離現實,是因為我已經死了」的想法;大腦認為這個提議很荒唐,很可能再也不會想起它。但是在科塔爾症候群的患者身上,這套合理性檢查機制顯然壞掉了。大腦將脫離現實的感覺歸因於他們已經死了,這個想法不知為何保留了下來,而大腦也認為這個解釋站得住腳。於是在其他人眼中絕對是妄想的念頭,成了他們深信不移的答案。

-----廣告,請繼續往下閱讀-----

醫生在為科塔爾症候群患者(以及後面會介紹的另外幾種行為古怪的精神障礙患者)尋找腦部損傷時,經常發現腦傷位於右腦。神經科學家因此假設合理性檢查機制位於右腦。大腦分為兩半,叫做大腦半球(cerebral hemispheres)。左腦半球和右腦半球的劃分簡單有力,因為有一道裂縫將大腦一分為二。乍看之下,左右兩邊一模一樣,但受過訓練的神經科學家用肉眼就能看出兩者並非完全對稱。透過顯微鏡觀察,差異更加顯著。因此左腦與右腦的功能有差異或許不足為奇。

長期以來,一直有人拿這些差異做文章,用錯誤的方式來解讀左腦和右腦的不同,以偏概全又過於誇大。例如斬釘截鐵地說,有些人較常使用右腦,也就是「右腦人」,所以擅長創意思考,「左腦人」則比較有邏輯。這是大家耳熟能詳的觀念,但神經科學家認為這只是迷思。實際上,我們使用大腦時不會特別偏左或偏右,而是完整使用兩個半腦。不過有些功能(例如語言的某些能力)會比較依賴某一個大腦半球。所以科塔爾症候群與右腦損傷有關的假設,並非全然不可能。

但科塔爾症候群(可能也包括合理性檢查機制)與右腦的關聯性依然只是假設,只不過許多(但不是所有)神經科學家深入研究過的科塔爾症候群案例,都支持這項觀察結果。無論合理性檢查機制確切位於何處,但在推演患者如何發展出科塔爾症候群的通用模型中,這個假設的機制扮演著重要角色。首先,大腦功能異常造成疏離症狀,例如喪失現實感與人格解離。大腦出於習慣,會先試著為眼前的情況找答案。問題是,仔細檢查並淘汰不合理答案的能力也受損了,於是大腦只好捏造稀奇古怪的答案,告訴自己身體已經死了(或是邪靈附體、正在腐爛等等),而且不會因為這個答案不合理而淘汰它。

有人認為,這種階段性的妄想形成過程也適用於另一些妄想症。這些妄想症的症狀也很古怪,不亞於科塔爾症候群。

-----廣告,請繼續往下閱讀-----

——本文摘自《大腦獵奇偵探社:狼人、截肢癖、多重人格到集體中邪,100個讓你洞察人性的不思議腦科學案例》,2024 年 7 月,行路出版,未經同意請勿轉載。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

行路出版_96
21 篇文章 ・ 8 位粉絲
行路為「讀書共和國」出版集團旗下新創的出版社,出版知識類且富科普或哲普內涵的書籍,科學類中尤其將長期耕耘「心理學+腦科學」領域重要、具時代意義,足以當教材的出版品。 行路臉書專頁:https://www.facebook.com/WalkPublishing