Loading [MathJax]/jax/input/TeX/config.js

0

18
0

文字

分享

0
18
0

化繁為簡,只有作用力與物質距離的世界——《物理學的演進》

商周出版_96
・2021/04/15 ・2066字 ・閱讀時間約 4 分鐘 ・SR值 561 ・九年級

  • 作者|Albert Einstein, Leopold Infeld
  • 譯者|王文生

科學研究的結果,常促使哲學改變看待問題的方式,這就遠遠超出科學有限的範疇。

科學的目標是什麼?嘗試描述自然的理論,要符合哪些要求?這些問題雖然超出物理的界線,兩者卻有緊密的關連,因為科學正是構成這些問題的材料。科學在哲學上的推演,必須奠基於科學結果。一旦哲學推演得到多數認同,它們也常指出幾條可能的發展方向,影響科學思想的進步。主流觀念的重大變革會產生全然不同的、出乎意料的進展,成為新哲學觀點的源頭。這些評論聽起來空泛又毫無意義,我們得引用物理史的實例說明才行。

我們試著描述第一個論及科學目的的哲學觀點。這些觀點對物理發展一直維持重要的影響力,直到 100 年前,新的證據、現象和理論促使人們放棄舊的哲學觀點,讓科學有了伸展拳腳的新空間。

科學的歷史,從希臘哲學到近代物理,人們不斷追求將看似複雜的自然現象簡化為簡單的基本觀念,並將觀念連結起來。這是所有自然哲學背後的基本原則。這個原則,甚至在原子論者的著作裡都能看見。早在 23 個世紀以前,德謨克利特(Democritus,前 460 – 前 370)就寫道:

我們習慣把甜稱為甜,習慣把苦稱為苦,把熱稱為熱,冷稱為冷。但是,現實中只有原子和虛無。也就是說,雖然感官的對象應該是真實的,人們一般也這麼認為,但是,它們實際上並非真實。只有原子和虛無是真實的。

雖然感官的對象應該是真實的,人們一般也這麼認為,但是,它們實際上並非真實。只有原子和虛無是真實的。圖/Pixabay

它只是古代哲學中一個巧妙的想像力產物。連結一連串事件的自然定律,對希臘人來說還是未知。將理論與實驗結合的科學,從伽利略的工作才算有個起頭。在第一條線索的指引下,我們找到運動定律。200 年來,有關力與物質的科學研究,是人類探索自然的努力背後的骨幹。我們無法想像少了力與物質任何一項的自然。因為物質作為力的來源,作用在其他物質上,藉此展現本身的存在。

-----廣告,請繼續往下閱讀-----

讓我們考慮最單純的例子:某個力作用在兩個粒子間。最容易想像的是引力和斥力。不管哪一種情形,力的向量都位在兩個物質構成的點的連線上。為求簡潔,自然會想到兩粒子互相吸引或排斥的圖像。若假設力作用在其他方向,圖像會複雜不少。在此之上,針對力向量的長度,我們能再加一條同樣單純的假設嗎?儘管我們有意避開太特殊的假設,加上這條也無傷大雅:任意兩粒子之間的力,只和兩者距離有關,例如重力。看起來,它也夠單純。更加複雜的作用力也不難想像,像是有些不只受距離影響,也和兩粒子速度有關的作用力。

使用物質和力作為基礎觀念的話,我們很難想像比作用在粒子連線上,只受距離影響的力更單純的假設。但是,單靠這一種作用力,足以描述所有物理現象嗎?

粒子互相吸引或排斥的圖像。圖/《物理學的演進

力學在衍生領域的偉大成就,像天文領域驚人的進展,甚至乍看之下不屬於力學的問題,其實也能套用力學觀念。這些成功加深了人們的信念,只要用不可改變的物體之間單純的作用力,就能解釋所有自然現象。從伽利略以降,兩個世紀間,幾乎所有的科學產物都有意或無意地朝這個方向努力。19 世紀中,亥姆霍玆 (Hermann von Helmholtz,1821-1894) 把這項信念化為文字:

終於,我們發現,物質的物理科學是將自然現象轉換為不可變動的吸力與斥力,其強度只和距離有關。這個問題的解答,是完全理解自然的必要條件。

根據亥姆霍玆的說法,科學的發展路徑已經確定,往後將分毫不差地走向固定方向:

-----廣告,請繼續往下閱讀-----

不僅如此,只要所有自然現象都能化簡為單純的力,並且到證據,證明它是簡化現象的唯一途徑,科學工作將迎來終點。

在 20 世紀的物理學家眼中,這個想法既笨拙又天真。他可能不敢想像偉大的探索工作能如此順利地結束,而且也會因為可靠的宇宙圖像就此定案而感到興趣索然。

雖然早期物理學家相信,所有的現象都能縮減成單純的作用力,他們還是留下為何力和距離有關的問題。在不同現象,力隨距離的改變程度有可能不同。為了不同狀況,而引入多種類的力,以哲學觀點來看不能說是盡善盡美。儘管如此,所謂的機械論 (mechanical view),主要由亥姆霍玆清楚定義,在當時扮演著重要的角色。物質的動力理論方面的進步,是機械論影響下最偉大的成就之一。

談到機械論的衰退前,我們暫時先接受這個上一個世紀的物理學家之間的主流觀點,看看以這個外在世界的圖像為出發點,能得出什麼結論。

——本文摘自《物理學的演進》,2021年2月,商周出版。
-----廣告,請繼續往下閱讀-----
文章難易度
商周出版_96
123 篇文章 ・ 364 位粉絲
閱讀商周,一手掌握趨勢,感受愜意生活!商周出版為專業的商業書籍出版公司,期望為社會推動基礎商業知識和教育。

0

1
0

文字

分享

0
1
0
拆解邊緣AI熱潮:伺服器如何提供穩固的運算基石?
鳥苷三磷酸 (PanSci Promo)_96
・2025/05/21 ・5071字 ・閱讀時間約 10 分鐘

-----廣告,請繼續往下閱讀-----

本文與 研華科技 合作,泛科學企劃執行。

每次 NVIDIA 執行長黃仁勳公開發言,總能牽動整個 AI 產業的神經。然而,我們不妨設想一個更深層的問題——如今的 AI 幾乎都倚賴網路連線,那如果哪天「網路斷了」,會發生什麼事?

想像你正在自駕車打個盹,系統突然警示:「網路連線中斷」,車輛開始偏離路線,而前方竟是萬丈深谷。又或者家庭機器人被駭,開始暴走跳舞,甚至舉起刀具向你走來。

這會是黃仁勳期待的未來嗎?當然不是!也因為如此,「邊緣 AI」成為業界關注重點。不靠雲端,AI 就能在現場即時反應,不只更安全、低延遲,還能讓數據當場變現,不再淪為沉沒成本。

什麼是邊緣 AI ?

邊緣 AI,乍聽之下,好像是「孤單站在角落的人工智慧」,但事實上,它正是我們身邊最可靠、最即時的親密數位夥伴呀。

當前,像是企業、醫院、學校內部的伺服器,個人電腦,甚至手機等裝置,都可以成為「邊緣節點」。當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。簡單來說,就是將原本集中在遠端資料中心的運算能力,「搬家」到更靠近數據源頭的地方。

-----廣告,請繼續往下閱讀-----

那麼,為什麼需要這樣做?資料放在雲端,集中管理不是更方便嗎?對,就是不好。

當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。/ 圖片來源:MotionArray

第一個不好是物理限制:「延遲」。
即使光速已經非常快,數據從你家旁邊的路口傳到幾千公里外的雲端機房,再把分析結果傳回來,中間還要經過各種網路節點轉來轉去…這樣一來一回,就算只是幾十毫秒的延遲,對於需要「即刻反應」的 AI 應用,比如說工廠裡要精密控制的機械手臂、或者自駕車要判斷路況時,每一毫秒都攸關安全與精度,這點延遲都是無法接受的!這是物理距離與網路架構先天上的限制,無法繞過去。

第二個挑戰,是資訊科學跟工程上的考量:「頻寬」與「成本」。
你可以想像網路頻寬就像水管的粗細。隨著高解析影像與感測器數據不斷來回傳送,湧入的資料數據量就像超級大的水流,一下子就把水管塞爆!要避免流量爆炸,你就要一直擴充水管,也就是擴增頻寬,然而這樣的基礎建設成本是很驚人的。如果能在邊緣就先處理,把重要資訊「濃縮」過後再傳回雲端,是不是就能減輕頻寬負擔,也能節省大量費用呢?

第三個挑戰:系統「可靠性」與「韌性」。
如果所有運算都仰賴遠端的雲端時,一旦網路不穩、甚至斷線,那怎麼辦?很多關鍵應用,像是公共安全監控或是重要設備的預警系統,可不能這樣「看天吃飯」啊!邊緣處理讓系統更獨立,就算暫時斷線,本地的 AI 還是能繼續運作與即時反應,這在工程上是非常重要的考量。

所以你看,邊緣運算不是科學家們沒事找事做,它是順應數據特性和實際應用需求,一個非常合理的科學與工程上的最佳化選擇,是我們想要抓住即時數據價值,非走不可的一條路!

邊緣 AI 的實戰魅力:從工廠到倉儲,再到你的工作桌

知道要把 AI 算力搬到邊緣了,接下來的問題就是─邊緣 AI 究竟強在哪裡呢?它強就強在能夠做到「深度感知(Deep Perception)」!

-----廣告,請繼續往下閱讀-----

所謂深度感知,並非僅僅是對數據進行簡單的加加減減,而是透過如深度神經網路這類複雜的 AI 模型,從原始數據裡面,去「理解」出更高層次、更具意義的資訊。

研華科技為例,旗下已有多項邊緣 AI 的實戰應用。以工業瑕疵檢測為例,利用物件偵測模型,快速將工業產品中的瑕疵挑出來,而且由於 AI 模型可以使用同一套參數去檢測,因此品管上能達到一致性,減少人為疏漏。尤其在高產能工廠中,檢測速度必須快、狠、準。研華這套 AI 系統每分鐘最高可處理 8,000 件產品,替工廠節省大量人力,同時確保品質穩定。這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。

這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。/ 圖片提供:研華科技

此外,在智慧倉儲場域,研華與威剛合作,研華與威剛聯手合作,在 MIC-732AO 伺服器上搭載輝達的 Nova Orin 開發平台,打造倉儲系統的 AMR(Autonomous Mobile Robot) 自走車。這跟過去在倉儲系統中使用的自動導引車 AGV 技術不一樣,AMR 不需要事先規劃好路線,靠著感測器偵測,就能輕鬆避開障礙物,識別路線,並且將貨物載到指定地點存放。

當然,還有語言模型的應用。例如結合檢索增強生成 ( RAG ) 跟上下文學習 ( in-context learning ),除了可以做備忘錄跟排程規劃以外,還能將實務上碰到的問題記錄下來,等到之後碰到類似的問題時,就能詢問 AI 並得到解答。

你或許會問,那為什麼不直接使用 ChatGPT 就好了?其實,對許多企業來說,內部資料往往具有高度機密性與商業價值,有些場域甚至連手機都禁止員工帶入,自然無法將資料上傳雲端。對於重視資安,又希望運用 AI 提升效率的企業與工廠而言,自行部署大型語言模型(self-hosted LLM)才是理想選擇。而這樣的應用,並不需要龐大的設備。研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。

但問題也接著浮現:要在這麼小的設備上跑大型 AI 模型,會不會太吃資源?這正是目前 AI 領域最前沿、最火熱的研究方向之一:如何幫 AI 模型進行「科學瘦身」,又不減智慧。接下來,我們就來看看科學家是怎麼幫 AI 減重的。

-----廣告,請繼續往下閱讀-----

語言模型瘦身術之一:量化(Quantization)—用更精簡的數位方式來表示知識

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。這其實跟圖片壓縮有點像:有些畫面細節我們肉眼根本看不出來,刪掉也不影響整體感覺,卻能大幅減少檔案大小。

模型量化的原理也是如此,只不過對象是模型裡面的參數。這些參數原先通常都是以「浮點數」表示,什麼是浮點數?其實就是你我都熟知的小數。舉例來說,圓周率是個無窮不循環小數,唸下去就會是3.141592653…但實際運算時,我們常常用 3.14 或甚至直接用 3,也能得到夠用的結果。降低模型參數中浮點數的精度就是這個意思! 

然而,量化並不是那麼容易的事情。而且實際上,降低精度多少還是會影響到模型表現的。因此在設計時,工程師會精密調整,確保效能在可接受範圍內,達成「瘦身不減智」的目標。

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。/ 圖片來源:MotionArray

模型剪枝(Model Pruning)—基於重要性的結構精簡

建立一個 AI 模型,其實就是在搭建一整套類神經網路系統,並訓練類神經元中彼此關聯的參數。然而,在這麼多參數中,總會有一些參數明明佔了一個位置,卻對整體模型沒有貢獻。既然如此,不如果斷將這些「冗餘」移除。

這就像種植作物的時候,總會雜草叢生,但這些雜草並不是我們想要的作物,這時候我們就會動手清理雜草。在語言模型中也會有這樣的雜草存在,而動手去清理這些不需要的連結參數或神經元的技術,就稱為 AI 模型的模型剪枝(Model Pruning)。

-----廣告,請繼續往下閱讀-----

模型剪枝的效果,大概能把100變成70這樣的程度,說多也不是太多。雖然這樣的縮減對於提升效率已具幫助,但若我們要的是一個更小幾個數量級的模型,僅靠剪枝仍不足以應對。最後還是需要從源頭著手,採取更治本的方法:一開始就打造一個很小的模型,並讓它去學習大模型的知識。這項技術被稱為「知識蒸餾」,是目前 AI 模型壓縮領域中最具潛力的方法之一。

知識蒸餾(Knowledge Distillation)—讓小模型學習大師的「精髓」

想像一下,一位經驗豐富、見多識廣的老師傅,就是那個龐大而強悍的 AI 模型。現在,他要培養一位年輕學徒—小型 AI 模型。與其只是告訴小型模型正確答案,老師傅 (大模型) 會更直接傳授他做判斷時的「思考過程」跟「眉角」,例如「為什麼我會這樣想?」、「其他選項的可能性有多少?」。這樣一來,小小的學徒模型,用它有限的「腦容量」,也能學到老師傅的「智慧精髓」,表現就能大幅提升!這是一種很高級的訓練技巧,跟遷移學習有關。

舉個例子,當大型語言模型在收到「晚餐:鳳梨」這組輸入時,它下一個會接的詞語跟機率分別為「炒飯:50%,蝦球:30%,披薩:15%,汁:5%」。在知識蒸餾的過程中,它可以把這套機率表一起教給小語言模型,讓小語言模型不必透過自己訓練,也能輕鬆得到這個推理過程。如今,許多高效的小型語言模型正是透過這項技術訓練而成,讓我們得以在資源有限的邊緣設備上,也能部署愈來愈強大的小模型 AI。

但是!即使模型經過了這些科學方法的優化,變得比較「苗條」了,要真正在邊緣環境中處理如潮水般湧現的資料,並且高速、即時、穩定地運作,仍然需要一個夠強的「引擎」來驅動它們。也就是說,要把這些經過科學千錘百鍊、但依然需要大量計算的 AI 模型,真正放到邊緣的現場去發揮作用,就需要一個強大的「硬體平台」來承載。

-----廣告,請繼續往下閱讀-----

邊緣 AI 的強心臟:SKY-602E3 的三大關鍵

像研華的 SKY-602E3 塔式 GPU 伺服器,就是扮演「邊緣 AI 引擎」的關鍵角色!那麼,它到底厲害在哪?

一、核心算力
它最多可安裝 4 張雙寬度 GPU 顯示卡。為什麼 GPU 這麼重要?因為 GPU 的設計,天生就擅長做「平行計算」,這正好就是 AI 模型裡面那種海量數學運算最需要的!

你想想看,那麼多數據要同時處理,就像要請一大堆人同時算數學一樣,GPU 就是那個最有效率的工具人!而且,有多張 GPU,代表可以同時跑更多不同的 AI 任務,或者處理更大流量的數據。這是確保那些科學研究成果,在邊緣能真正「跑起來」、「跑得快」、而且「能同時做更多事」的物理基礎!

二、工程適應性——塔式設計。
邊緣環境通常不是那種恆溫恆濕的標準機房,有時是在工廠角落、辦公室一隅、或某個研究實驗室。這種塔式的機箱設計,體積相對緊湊,散熱空間也比較好(這對高功耗的 GPU 很重要!),部署起來比傳統機架式伺服器更有彈性。這就是把高性能計算,進行「工程化」,讓它能適應台灣多樣化的邊緣應用場景。

三、可靠性
SKY-602E3 用的是伺服器等級的主機板、ECC 糾錯記憶體、還有備援電源供應器等等。這些聽起來很硬的規格,背後代表的是嚴謹的工程可靠性設計。畢竟在邊緣現場,系統穩定壓倒一切!你總不希望 AI 分析跑到一半就掛掉吧?這些設計確保了部署在現場的 AI 系統,能夠長時間、穩定地運作,把實驗室裡的科學成果,可靠地轉化成實際的應用價值。

-----廣告,請繼續往下閱讀-----
研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。/ 圖片提供:研華科技

台灣製造 × 在地智慧:打造專屬的邊緣 AI 解決方案

研華科技攜手八維智能,能幫助企業或機構提供客製化的AI解決方案。他們的技術能力涵蓋了自然語言處理、電腦視覺、預測性大數據分析、全端軟體開發與部署,及AI軟硬體整合。

無論是大小型語言模型的微調、工業瑕疵檢測的模型訓練、大數據分析,還是其他 AI 相關的服務,都能交給研華與八維智能來協助完成。他們甚至提供 GPU 與伺服器的租借服務,讓企業在啟動 AI 專案前,大幅降低前期投入門檻,靈活又實用。

台灣有著獨特的產業結構,從精密製造、城市交通管理,到因應高齡化社會的智慧醫療與公共安全,都是邊緣 AI 的理想應用場域。更重要的是,這些情境中許多關鍵資訊都具有高度的「時效性」。像是產線上的一處異常、道路上的突發狀況、醫療設備的即刻警示,這些都需要分秒必爭的即時回應。

如果我們還需要將數據送上雲端分析、再等待回傳結果,往往已經錯失最佳反應時機。這也是為什麼邊緣 AI,不只是一項技術創新,更是一條把尖端 AI 科學落地、真正發揮產業生產力與社會價值的關鍵路徑。讓數據在生成的那一刻、在事件發生的現場,就能被有效的「理解」與「利用」,是將數據垃圾變成數據黃金的賢者之石!

👉 更多研華Edge AI解決方案
👉 立即申請Server租借

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

2
1

文字

分享

0
2
1
AI 能像人類一樣思考?諾貝爾物理學獎研究助力人工智慧模擬人類大腦
PanSci_96
・2024/11/14 ・2117字 ・閱讀時間約 4 分鐘

-----廣告,請繼續往下閱讀-----

即使再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?畢竟電腦的電子元件和我們大腦中的神經細胞結構截然不同。再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?

錯,可以。

2024 年諾貝爾物理學獎跌破所有專家的眼鏡,頒給了兩位研究機器學習的科學家——約翰·霍普菲爾德(John Hopfield)和傑佛瑞·辛頓(Geoffrey Hinton)。他們以「人工」的方法打造了類神經網路,最終模擬出生物的「智慧」,奠定了當代深度學習的基礎。

為什麼解決人工智慧發展瓶頸的,竟然會是物理學?物理要怎麼讓 AI 更像人類?

-----廣告,請繼續往下閱讀-----
歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

從巴甫洛夫的狗到赫布理論:理解學習的基礎

為了解答這個疑問,我們需要一些背景知識。

20 世紀初,俄羅斯心理學家巴甫洛夫發現,狗在食物還沒入口前,就會開始分泌唾液。他進行了一系列實驗,改變食物出現前的環境,比如讓狗習慣在聽到鈴聲後馬上得到食物。久而久之,狗只要聽到鈴聲,就會開始分泌唾液。

大約 50 年後,神經科學家赫布(Donald Hebb)提出了一個假說:大腦中相近的神經元,因為經常同時放電,會產生更強的連結。這種解釋稱為「赫布理論」,不僅奠定了神經心理學的發展,更成為現代深度學習的基礎。

然而,赫布理論雖然描述了鄰近神經元的關係,卻無法解釋大腦如何建構出如此複雜的聯想網路。

-----廣告,請繼續往下閱讀-----

霍普菲爾德網路:物理學家對神經網路的貢獻

然而,赫布理論雖能描述神經元之間的關係,卻缺乏數學模型。物理學家約翰·霍普菲爾德從數學家約翰·康威(John Conway)的「生命遊戲」(Game of Life)中獲得靈感,試圖建立一個可以在電腦上運行的記憶系統。

霍普菲爾德受「生命遊戲」啟發,嘗試建立電腦記憶系統。圖/envato

「生命遊戲」由數學家康威(John Conway)發明,玩家開始時有一個棋盤,每個格子代表一個細胞,細胞可以是「活」或「死」的狀態。根據特定規則,細胞會根據鄰居的狀態決定下一次的生存狀態。康威的目的是展示複雜的系統不一定需要複雜的規則。

霍普菲爾德發現,這個遊戲與赫布理論有強大的關聯性。大腦中的大量神經元,在出生時處於初始狀態,經過刺激後,神經元間的連結會產生或斷裂,形成強大的記憶系統。他希望利用這些理論,創造一個能在電腦上運行的記憶系統。

然而,他面臨一個難題:赫布理論沒有明確的數學模型來決定神經元連結的規則。而在電腦上運行,必須要有明確的數學規則。

-----廣告,請繼續往下閱讀-----

物理學的啟發:易辛模型

霍普菲爾德從物理學的研究中找到了類似的模型:易辛模型(Ising Model)。這個模型用於解釋鐵磁性物質的磁性特性。

在鐵磁性物質中,電子具有「自旋」,自旋產生磁矩。電子的自旋方向只有「向上」或「向下」,這就像生命遊戲中細胞的「生」或「死」。鄰近的電子會影響彼此的自旋方向,類似於細胞之間的互動。

易辛模型能用數學描述電子間的相互影響,並通過計算系統能量,得出自旋狀態的分佈。霍普菲爾德借用了這個概念,將神經元的互動視為電子自旋的互動。

他結合了康威生命遊戲的時間演化概念、易辛模型的能量計算,以及赫布理論的動態連結,創造了「霍普菲爾德網路」。這讓電腦能夠模擬生物大腦的學習過程。

-----廣告,請繼續往下閱讀-----

突破瓶頸:辛頓與波茲曼機

約翰·霍普菲爾德於1982年發明聯想神經網路,即「霍普菲爾網路」。圖/wikimedia

然而,霍普菲爾德網路並非完美。它容易陷入「局部最小值」的問題,無法找到系統的全局最優解。為了解決這個問題,加拿大計算機科學家傑佛瑞·辛頓(Geoffrey Hinton)提出了「波茲曼機」(Boltzmann Machine)。

辛頓將「模擬退火」的概念引入神經網路,允許系統以一定的機率跳出局部最小值,尋找全局最優解。他還引入了「隱藏層」的概念,將神經元分為「可見層」和「隱藏層」,提高了網路的學習能力。

受限波茲曼機(Restricted Boltzmann Machine)進一步簡化了模型,成為深度學習的基礎結構之一。這些創新使得 AI 能夠更有效地模擬人類的思維和學習過程。

AI 的未來:跨學科的融合

霍普菲爾德和辛頓的工作,將物理學的概念成功應用於人工智慧。他們的研究不僅解決了 AI 發展的瓶頸,還奠定了深度學習的基礎,對現代 AI 技術產生了深遠的影響。因此,2024 年諾貝爾物理學獎頒給他們,並非意外,而是對他們在跨學科領域的重大貢獻的肯定。

-----廣告,請繼續往下閱讀-----

AI 的發展,離不開物理學、生物學、數學等多學科的融合。霍普菲爾德和辛頓的工作,正是這種融合的典範。未來,隨著科學技術的進步,我們有理由相信,AI 將越來越接近人類的思維方式,甚至可能超越我們的想像。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

PanSci_96
1262 篇文章 ・ 2411 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

2

4
8

文字

分享

2
4
8
「意識」是什麼?人們已經找到答案了嗎?
PanSci_96
・2023/11/26 ・6000字 ・閱讀時間約 12 分鐘

-----廣告,請繼續往下閱讀-----

「意識」是什麼?

直到現在,仍是宗教、哲學、心理學、神經科學都還無法解答的難題。

但是今年, 2023 年,一場來自神經學家與哲學家對於「意識」解釋的賭注,在經過長達 25 年的研究後,終於要畫下句點了嗎?到底是誰贏了?對自己頭上頂著的大腦,我們又了解多少了?

25 年前,一場圍繞「意識」之謎的賭局

1998 年,神經科學家克里斯托夫・科赫(Christof Koch)和哲學家戴維・查爾莫斯(David John Chalmers)打賭一箱葡萄酒,如果 25 年後,人們已經能清楚地解釋意識背後的神經機制,那麼就是科赫贏了。反之,如果還是未能解答意識之謎,就是查爾莫斯贏了。

-----廣告,請繼續往下閱讀-----

但在揭曉勝者之前,我們要先來談談一個最基本的問題,「意識」到底是什麼?首先我們要先定義清楚,因為在中文中,意識指的可能是一個人的清醒狀態、也可以是對內在自我的一種感知、又或是包含感知、情緒、思考等等的一種總和、又甚至可以是指在精神分析理論中與前意識和潛意識的比較。

若要深入探討意識定義的發展以及不同的哲學論點,那真的不做個三十集做不完,在這集的時間內,就讓我們把重點放在感質(Qualia)的相關概念。感質,指的是個人直接體驗的主觀感受,被認為無法通過客觀描述或第三人稱觀察來完全理解或解釋。我們感知世界的方式、感受事物的質感、觸覺、視覺、聽覺、嗅覺等等都是屬於感質。

感質,指的是個人直接體驗的主觀感受,被認為無法通過客觀描述或第三人稱觀察來完全理解或解釋。圖/wikipedia

舉一個例子。若是把一顆紅蘋果放在大家面前,詢問蘋果這是什麼顏色,相信大家應該都會說這是紅色。然而,雖然科學能解釋紅色是因為有波長約 620 到 750 奈米的光,刺激到視網膜的錐細胞,產生一連串的神經反應,最後形成大腦的表徵,但卻無法解釋我們對紅色的主觀感受是怎麼形成的。

哲學家們也常思考,你看到的紅色,和我看到的紅色究竟是否一樣,是否有可能我眼中的紅其實是你眼中的綠。

-----廣告,請繼續往下閱讀-----

舉另一個例子,這件數年前爆紅的衣服,你覺得是藍色與黑色相間,還是白色與金色相間呢?

另外,像是這張圖究竟是兔子還是鴨子?

圖/wikipedia

這張圖究竟是狗還是小女孩?

明明有張客觀的圖片存在,每個人的主觀感受卻有不同的答案。

-----廣告,請繼續往下閱讀-----

「困難問題」(Hard problem of consciousness)是找不到答案的問題?

在意識賭局中的哲學家戴維・查爾莫斯,就提出感質以及主觀經驗為什麼(why)存在以及如何(how)產生是所謂的困難問題(Hard problem of consciousness),相較於簡單的問題是討論意識相關的功能和行為,困難問題涉及意識的經驗(現象、主觀),是沒辦法客觀觀察測量。也就是這個問題,是沒有答案的。

舉一個屬於困難問題的例子,明明都只是大腦的神經在放電,為何某些神經放電後會導致飢餓感而不是其他感覺,譬如口渴?他認為即使沒有飢餓這種「感覺」,飢餓衍伸出的行為,例如進食,也可以發生。因此這些產生的感覺,無法單純簡化由大腦等物理系統解釋。

圖/giphy

然而,困難問題的說法其實也存在爭論。根據 2020 年哲學期刊文章的互動式學術資料庫 PhilPapers 的調查, 29.72% 的受訪哲學家認為難題不存在,而 62.42% 的受訪哲學家認為難題是一個真正的問題。

也有一群神經科學家們雖然接受困難問題的存在,卻也認為困難問題未來可以被解決,又或是被證明這不是一個真正的問題。並開啟了他們對於意識相關神經區(neural correlates of consciousness)簡稱 NCC 的研究發展,試圖找到足以產生意識的最小神經集合。

-----廣告,請繼續往下閱讀-----
精神科學家開啟對於意識相關神經區(neural correlates of consciousness)簡稱 NCC 的研究發展,試圖找到足以產生意識的最小神經集合。圖/PanSci YouTube

但 NCC 的研究被認為最多只能找到神經反應與意識的相關性,解決的仍然只是簡單問題而非困難問題。為了突破 NCC 本身的限制,人們又開始轉往重視意識理論(theories of consciousness (ToCs))的發展。希望透過意識理論來超越以 NCC 為基礎的方法論,轉向提供更具解釋性見解的意識模型。

在意識模型這邊還在爭論不休,讓我們先把鏡頭換到神經學家這一邊。

研究科技進步,為意識研究帶來哪些幫助?

面對意識這個艱難的大哉問,克里斯托夫・科赫當初怎麼那麼有自信,敢發起這個看起來勝算就不大的挑戰呢?有那麼愛喝嗎?

1998 年,年輕有為的克里斯托夫・科赫已經是加州理工學院的助理教授,並和生命科學領域大咖中的大咖弗朗西斯・克里克,合作研究意識這個主題。沒錯,就是和華生一同發現 DNA 是雙股螺旋結構的克里克。除此之外,克里斯托夫還擁有物理的碩士學位,擁有跨領域的知識,讓他更加相信透過實證的方式,能找到意識的神經機制。

-----廣告,請繼續往下閱讀-----
克里斯托夫・科赫合作研究意識的對象便是與華生一同發現 DNA 是雙股螺旋結構的弗朗西斯・克里克。圖/PanSci YouTube

當時有許多大腦研究的技術蓬勃發展,像是功能性磁振造影(fMRI)已經獲得廣泛使用,使得科學家們能在對象進行活動或是受外界刺激時,同步從大腦血氧濃度的變化來推斷神經反應。

此外,光學遺傳學(optogenetics)技術也在那個時期開始萌芽,這讓研究者能用極佳的時間解析度來調控特定的大腦神經元,並藉此解碼大腦的秘密。舉例來說,現在的光學遺傳學能讓科學家們鎖定小鼠的特定神經細胞,並在小鼠頭上裝上 LED 光纖,只要開啟 LED 的光刺激,那些特定神經細胞就會興奮或抑制。藉由觀察小鼠行為的變化,就能了解不同行為表現是由哪些神經元所調控。

現在的光學遺傳學能讓科學家們鎖定小鼠的特定神經細胞。圖/PanSci YouTube

厲害的是,在 1979 年光學遺傳學的技術還未誕生前,克里克就認為如果想要了解大腦的運作,精準控制大腦中一種類型的所有細胞是非常重要的,而若想要有極佳的時間和空間精細度,必須使用光的技術,這與後來光學遺傳學的發明不謀而合。

有了這些科技加持,長達 25 年對於意識的賭注也即將來到結局。

-----廣告,請繼續往下閱讀-----

所以,誰贏了賭注?

2023 年 6 月 23 日,在科學意識研究協會的年會上,揭曉了這長達 25 年的賭局。神經科學家克里斯托夫・科赫(Christof Koch)最終承認,目前還不能解釋大腦的神經元是如何產生意識,並買了一箱好葡萄酒(1978 Madeira)給哲學家戴維・查爾莫斯(David John Chalmers)實現諾言。

克里斯托夫・科赫最終承認,目前還不能解釋大腦的神經元是如何產生意識,並買了一箱好葡萄酒給戴維・查爾莫斯。圖/PanSci YouTube

當然,這不是說意識的來源永遠沒有解答,只是當初賭局設下的 25 年時限到了。實際上到了 2018 年,他們兩位根本都忘了這場賭局,直到一位科學記者佩爾・斯納普魯德重新提及這個話題,才讓大家重新想起。

恰巧那個時間點,克里斯托夫・科赫和戴維・查爾莫斯都參與了鄧普頓世界慈善基金會支持加速意識研究的大型項目。該計畫建立一系列意識理論的「對抗性」實驗,希望透過讓兩個或多個持相反觀點的競爭對手共同合作研究,來挑戰各種意識假設。

意識理論的百家爭鳴

而其中包含兩個著名的意識理論,全局工作空間理論(Global Workspace Theory (GWT))和整合資訊理論(Integrated Information Theory (IIT))。

-----廣告,請繼續往下閱讀-----
全局工作空間理論(Global Workspace Theory (GWT))。圖/PanSci YouTube

全局工作空間理論(Global Workspace Theory (GWT))的概念,最早是由認知科學家伯納德・巴爾斯和斯坦・富蘭克林在 1980 年代晚期提出。他們認為意識的產生就像是劇場聚光燈一樣,當這個意識劇場透過名為選擇性注意的聚光燈在舞台上照出內容,我們就會產生意識情境。這聚光燈的投射也代表著全局工作空間,只有當感官輸入、記憶或內在表徵受到注意時,它們才有機會整合成為全局工作空間的一部分,被我們主觀意識到。而我們的行為決策,也是透過這個全局工作空間整合訊息,並分配到其他系統所產生。目前認為全局工作是發生於大腦前方的前額葉區域。

整合資訊理論(Integrated Information Theory (IIT))。圖/PanSci YouTube

與全局工作空間理論打對臺的,是整合資訊理論(Integrated Information Theory (IIT)),最早由朱利奧・托諾尼(Giulio Tononi)在 2004 年提出。這理論認為,意識背後是有數學以及物理為基礎的因果關係。應該先肯定意識的存在,再回推尋找其背後的物質基礎,並認為主觀意識是由客觀的感覺經驗產生的。克里斯托夫・科赫就是此理論的擁護者,他進一步認為,意識背後的那個神經機制,就存在於大腦後方後皮質熱區(Posterior cortical hot zone),包括頂葉、顳葉和枕葉的感覺皮質區域。

讓我們稍微總結一下兩者差異:

全局工作空間理論——

  • 意識只能透過訊息投射到一個稱做「全局工作空間」之後才能呈現
  • 訊息本身不會形成意識
  • 訊息要被注意到才會產生意識

整合資訊理論——

  • 意識存在
  • 產生的關鍵是需要將大腦處理感覺的皮質區域訊息整合

然而,經過六個獨立實驗室的研究,雖然有較多的證據支持整合資訊理論,但兩個理論都存在缺陷和質疑,直到目前都尚未有明確解答能解釋意識的神經機制,這也讓克里斯托夫・科赫大方承認自己輸掉了這 25 年的賭局。

隨著科學測量技術的演進以及越來越多的研究進展,有一些神經科學家認為意識理論即將崛起,目前的狀態只不過是一種研究過渡期。科學哲學家托馬斯・庫恩(Thomas Kuhn)將這種過渡期以「前典範式」(preparadigmatic science)來形容,認為一門不成熟的科學在成熟前,會面臨相互競爭的思想流派並各說各話。就像是當初達爾文提出演化論的物競天擇前有拉馬克主義、災變論與均變論來試圖解釋物種起源一樣。

下一場賭約?

雖然這次的打賭由戴維・查爾莫斯獲得一勝,但克里斯托夫・科赫在今年加倍賭注,認為下一個 25 年他一定會贏。到時候克里斯托夫已經 91 歲,戴維 82 歲了。

大家別擔心,這一集是會員共同選出來的題目, 25 年之後,我們也會再為各位泛糰做一集討論賭局的結果。

最後也想問問大家, 25 年之後,你賭這場對決會是誰贏呢?

  1. 我壓在克里斯托夫・科赫身上,我們一定能解開意識之謎
  2. 我賭戴維・查爾莫斯,意識這個問題,可能很難用科學來解釋
  3. 在那之前, AI 可能都已經有意識了,直接問 AI 還比較快

趕快來留言吧,記得 25 年後要回來看啊!

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

-----廣告,請繼續往下閱讀-----
所有討論 2