1

2
3

文字

分享

1
2
3

讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員

研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

-----廣告,請繼續往下閱讀-----
文章難易度
所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3906 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

1
0

文字

分享

0
1
0
人工智慧的極限
賴昭正_96
・2026/01/15 ・5790字 ・閱讀時間約 12 分鐘

在發現的道路上,智慧(intellect)作用不大。意識(consciousness)━你可以稱之為直覺或其它任何你想用的詞━會發生一次飛躍,答案會突然出現在你面前,而你卻不知道它是如何或為什麼出現的。

-愛因斯坦(1879-1955),1921年諾貝爾物理獎

2025 年 10 月 13 日在參加建國中學高三 6 班畢業 66 週年的同學旅遊後,希望能瞭解一下投稿多年、從未謀面之《泛科學》的作業情形及發展計畫等,我決定到「泛科創新股份有限公司」參觀一下:沒想到知識長鄭國威竟然邀請我錄了一集「思想實驗室」。當被問及有關人工智慧(artificial intelligence,AI)的看法時,我突然冒出「因為科學的發現很多都是意外的,因此AI無法像人類一樣具有創造性」。沒想到這句話似乎成為這次訪問的主題,也引起比較熱烈的討論,因此我想在這裡補充一下。

AI(人工智慧)是否能青出於藍、更勝於藍地超越我們?這事實上也是專家爭論最多的話題。我不是專家,雖然知道「我思故我在」,但完全不知人類如何思想、大腦如何運作,更不瞭解上面愛因斯坦所提到之意識(consciousness)如何飛躍!但是已經被國威推上了這個平台,因此只好在這裡野人獻曝,依我所知的科學史提出懷疑。

回歸正題,上面問題的直覺反應答案是:人製造出來的怎麼可能比人聰明呢?但相信很多人都知道:人類所製造出來的圍棋軟體 AlphaGo 已經戰勝了所有的人類!其主人谷歌(Google)謂:它能戰勝人類是因為它利用策略網絡來推薦有希望的走法,並利用價值網絡來評估在給定局面下獲勝的機率,從而大幅縮小搜尋空間,使得它能夠「預想」數百萬步棋,並透過自身的對弈不斷學習,最終超越人類的層次。從這段話看來,我覺得 AlphaGo 能戰勝人類是基於高速地使用人類所設計出來之有路可循、亦有跡可尋的「邏輯策略」!

同樣地,如果我們給 AI 一含所有物質之性質的資料庫,然後告訴它如何尋找「規律」(pattern),相信它會非常勝任地發現許多具有某種特性的「新物質」、「新藥物」、甚或告訴我們如何製造它們(有機合成的資料庫)。但是 AI 雖然知道哈密瓜的所有性質(資料庫),可是它會想到哈密瓜含有能大量分泌青黴素的菌株、即時在第二次世界大戰中拯救了上百萬士兵的生命嗎(見後)?我覺得後者不是邏輯的問題,是沒辦法訓練的,因此 AI 不能「真正創造」不是依靠邏輯的發現。這正是本文所要談的:許多科學大突破都不是靠訓練或邏輯分析的!

-----廣告,請繼續往下閱讀-----

視眾人所見視,思眾人所未思

牛頓的傳記《艾薩克·牛頓爵士生平回憶錄》(Memoirs of Sir Isaac Newton’s Life)於1752年出版;作者斯圖克利(William Stukeley)在書中轉述:「晚餐後,天氣溫暖,我們去了花園,在幾棵蘋果樹的樹蔭下喝茶……他(牛頓)告訴我,他當時的處境和以前一樣,剛剛想到萬有引力的概念。當他正沉思時,一個蘋果掉了下來。他心想:『為什麼蘋果總是垂直落到地上,永遠不會向上或向一側掉落呢?……』,這使他得出結論:地球一定具有『引力』,從而發展出他的萬有引力理論。」

早在西元前 4 世紀左右,亞里斯多德(Aristotle)及歐幾里德(Euclid)等希臘哲學家就為自然哲學和邏輯奠定了基礎。樹上的水果都是往地面掉,這是任何小孩都知道的「常識」,但為什麼卻等了 1700 年才引起牛頓的注意?我們不知道為何牛頓會想到這個問題,但 AI 也會注意到這個現象嗎?如果會,它會先想到萬有引力或是直接跳到更精確的愛因斯坦廣義相對論(見後)呢? 

發現世上第一個抗生素的弗萊明(Alexander Fleming)度假回來後發現培養皿因未加蓋而發霉(見後),一般的研究者大多會將這些被黴菌孢子污染的培養皿丟掉;但弗萊明這次卻心血來潮……。他回憶說:

「基於先前「溶菌酶」的經驗,也像許多細菌學家那樣,我應該會把污染的培養皿丟掉,……某些細菌學家也有可能(早就)注意到我(那時)看到的相似變化,……但是在對天然產生的抗菌物質沒有任何興趣的情況下,都會順手地將培養物丟棄。……但(這次)我沒有找個藉口丟掉受污染的培養液;相反地,我做了進一步的探討。」

如果AI也能做實驗,它會像許多細菌學家那樣「順手地」丟棄培養物嗎?機會總是降臨在那些做好準備的「人」身上。

-----廣告,請繼續往下閱讀-----

幸運的靈感/直覺

一位正在自由下落的人不會感覺到自己的重量,那不是等於漂浮在沒有任何重力的外太空空間嗎?如果加速度可以抵消重力,那麼在沒有重力的情況下,加速度本身不是可以模擬重力,產生與真實重力沒有區別的人造重力嗎?愛因斯坦稱上面這一發現為「等效原理」(Equivalence Principle):我們雖然不知道重力是什麼,但其現象可以用加速度來模擬!這一想法啟動了愛因斯坦嘗試改變牛頓重力論的八年艱苦抗戰,於 1915 年 11 月完成了人類有史以來最美麗的物理理論━「廣義相對論」(General Theory of Relativity)。100 多年後的今天,愛因斯坦這一透過想像力來推測的理論仍然在指引著物理學家們去瞭解宇宙的基本特徵!怪不得愛因斯坦後來大膽地稱它為「我一生中最幸運的靈感」。

德國理論物理學家普朗克 (Max Planck) 謂他是靠「幸運的直覺 (lucky intuition) 」而意外地敲響了量子力學革命之鐘聲!在 1918 年諾貝爾獎頒獎典禮上,普朗克回憶說:

「然而,即使(我推導出來的)輻射公式絕對準確,它仍然只是一個幸運猜測(lucky guess)了正確插值公式的結果,其價值是非常有限的。因為這個原因,從那時起,我就忙著… 想闡明此公式的真實物理特性,這導致我考慮連接熵和概率之間的波茲曼(Boltzmann)關係。在經過我生命中最艱苦的幾個星期之工作後,光明終於驅除了黑暗,一個新的、從未夢想到的的觀點在我面前展開了。」

這普朗克從未夢想到的觀點是什麼呢? 就是「能量量化」的觀念,違反了當時「能量是連續」的共識!因之此後的十幾年,普朗克便一直在努力地想使他的量子觀念能容於古典力學裡;可是每次嘗試的結果,似乎均使自己失望得想收回那革命性的「大膽假設」而已。

錯誤的假設

好吧,就假設 AI 像愛因斯坦一樣也有「最幸運的靈感」,發現了廣義相對論。可是後來物理學家瞭解到了愛因斯坦的「等效定理」事實上不完全正確,是有限制的,也就是說它只是一種近似的基本定律,只適用於一個局部、無限小的時空區域內。哈,如果AI比人類聰明,怎麼會在邏輯上犯下這個錯誤呢?如果不犯這個錯誤,它能發現廣義相對論呢?

-----廣告,請繼續往下閱讀-----

又如 1905 年,愛因斯坦在題為「關於運動物體的電動力學」的(狹義相對論)論文引言裡,開宗明義地謂「不要爭辯」光速了:

「我們建議將「相對性原理」這個猜想(conjecture)提升到一個公設(postulate)的地位,並引入另一個表面上與前者不調和(irreconcilable)的公設,即光是在真空中的傳播速率為一與發射體運動狀態無關的定值 c。 這兩個假設足以(讓我們)透過適用於靜止物體(狀態)之馬克斯威(Maxwell)理論,導出一個簡單且不矛盾(consistent)的電動力學理論。」

愛因斯坦真大膽:一個可以用實驗來確定的光速,怎麼可以定為「公設」呢?光速與發射體運動狀態無關不是完全違反了我們日常生活的經驗(如聲速)嗎?愛因斯坦在其時鐘「同步程序」的假想實驗裡魔術般地導入了他的公設:光在任何方向的速度都是一樣的 c 值!完全忽略了當時幾乎所有物理學家都相信光是在「以太」中傳播的理論。

1924 年,一位名不見經傳,任教於東巴基斯坦的講師波思 (Styendra Bose) 在一篇 1500 字的論文裡做了一個誤打誤撞、連他自己本人都不知道、在整篇論文中隻字未提的重要及創新性假設:光量子是不可分辨的!在當時,所有的物理學家都認為光量子像銅板一樣是可以分辨的(我們可以分辨哪個是 A 銅板、哪個是 B 銅板、…),因此兩個銅板出現「一正及一反」的或然率是 2/4;但如果它們不能分辨呢?則出現「一正及一反」的或然率將變成 1/3。沒想到這一「錯誤」的假設後來竟成為打開量子統計力學的鑰匙!超強邏輯的AI會犯這種錯誤嗎?

愛因斯坦1915年完成他的廣義相對論後,發現他的方程式所預測的宇宙只能膨脹或收縮,與當時大部分科學家所認為的靜態宇宙觀相衝突!沒想到推翻了深植物理學家心中達兩百多年之牛頓時空觀念的革命壯士,竟然在這裡屈服了:為了符合當時的想法,愛因斯坦於1917年強行地於其廣義相對論導出之宇宙觀中加入一「常數」來平衡萬有引力,使他的宇宙能保持靜態!沒想到1929年後,新數據顯示宇宙不是靜態,而是在膨脹中;愛因斯坦因而後悔當初為何不相信自己的推論,稱那強行加入人為常數━「宇宙論常數」(cosmological constant)━為他一生中所犯之「最大錯誤」。AI會犯這種錯誤嗎?

-----廣告,請繼續往下閱讀-----

只有萬有引力的宇宙膨脹速率在一段時間後應該慢慢減小;但90年代末期,新的發現顯示現在宇宙膨脹速率不是隨時間減小、而是在加大!沒想到那錯誤的「宇宙論常數」現在竟然成為提供瞭解釋膨脹速率加快所需之排斥力來源─雖然我們還不知道那是啥!當然,我們也不知道愛因斯坦在天之靈是否還認為「宇宙論常數」是他一生中所犯的最大錯誤?而AI如果當初未犯那「最大錯誤」,現在是否反而會後悔呢?

老天的幫忙

硝化甘油為液體,非常不穩定,一不小心就爆炸;因此諾貝爾 (Alfred Nobel)一直在尋找取代物,但久而不得。傳說有一天儲存的硝化甘油意外泄漏,與用來包裝儲存鐵桶之板狀矽藻土混合但未爆炸,使他想到了試用此板狀矽藻土。經實驗後,他發現兩者相混之固體不但安全可靠,而且還可保持原有之爆炸威力─這不正是他夢寐以求、研究甚久而未能找到的「穩定炸藥」嗎?他因此發了大財,設定了今日大家所知道的諾貝爾獎。

在「發現能治療糖尿病的胰島素—胰島素與生技產業的誕生(上)」一文裡,我提到了「….將狗的胰臟割除,發現這隻可憐狗整天口渴及隨地小便。數日後,一位助手覺得實驗室內的蒼蠅好像突然多了起來,尤其是在狗小便過的地板。分析狗尿及其血液後,梅倫(Joseph von Mering)及明考斯基(Oskar Minkowski)很驚奇地發現裡面充滿了糖份。」顯然地,胰腺具有調解體內糖代謝的功能,它一旦受損將導致糖尿病。就這樣,法國兩位外科手術醫生無意中發現了「困擾」人類三千多年之糖尿病的病源━胰臟分泌物「胰島素」失調!這不是透過邏輯分析得到的結果,AI能做到嗎? 

前面所提到之蘇格蘭醫生兼微生物學家弗萊明是一位粗心的實驗室技術員。1928 年夏在研究葡萄球菌的某一天,他忘了將含有葡萄球菌培養物的培養皿放在培養箱中,留在實驗室工作台上就匆匆忙忙地離開實驗室去度假。命運就是這樣作弄人:那時室內的溫度及濕度均適合霉菌(mold,或譯「黴菌」)的生長;因此兩個禮拜回來後,弗萊明發現在敞開窗戶旁的培養皿因未加蓋而發霉。經細心觀察及研究後,弗萊明發現抑制或預防細菌生長的不是黴菌本身,而是黴菌產生的「黴汁」。就這樣,弗萊明發現了世上第一個抗生素「盤尼西林」(Penicillin,又稱為「青黴素」)!被《時代》雜誌評選為20世紀的100位最重要人物!

-----廣告,請繼續往下閱讀-----

1943年的某一天,在伊利諾州皮奧里亞 (Peoria) 的農業部北部區域研究實驗室 (NRRL) 工作的亨特 (Mary Hunt) ,無意中在一雜貨店裡發現了一顆表皮長滿漂亮及金色青黴的哈密瓜。將它帶回實驗室,篩選出能大量分泌青黴素的菌株後,她發現該菌株產生的青黴素數量是notatum的200倍━她因之贏得「發霉瑪麗 (Moldy Mary)」的綽號。在許多研究團隊紛紛加入菌種及製造方法的改良後,青黴素產量由1943年只能醫治不到1000人,一下子跳到1944年時,已有足夠的青黴素來治療每位需要的士兵,為第二次世界大戰提供了功不可沒的貢獻!也啓動了尋找其它抗生素的研究,開創了醫學的新紀元。

結論

上面我們提到科學家意外地發現了穩定的炸藥、控制血糖的胰島素、及治療特定細菌感染的抗生素。這些化合物都已經存在自然界中,但絕對不是邏輯分析可以發現其功能的,因此如果不是「老天的幫忙」,我實在很難理解AI怎麼會想到?事實上靠「老天幫忙」所發現的化學物是非常之多的。不需要靠老天幫忙的理論物理呢?

在討論牛頓「思眾人所未思」地發現萬有引力、開創了古典物理後,我們其它的討論都是針對全面改變我們日常生活之近代物理━量子力學及相對論━的發現史。希望讀完本文後,讀者能體會到科學進步不但鮮少一帆風順,相反地是一條充滿了意想不到之彎路和迷茫時刻的曲折蜿蜒旅程:這正是我在訪談中所提到的要多看「課外書」,鑑古知今瞭解理論背後歷史有助於瞭解理論本身。也希望讀完本文後,讀者能感受到科學上的突破幾乎全不是源自邏輯分析,而是出自無法捕捉的「靈感」、「直覺」、「錯誤假設」,「老天幫忙」、以及挑戰既有認知的「勇氣」。AI具有這些人性「缺點」嗎?

最後讓我們在此以公認為最偉大之兩位物理學家的話來結束。牛頓說:「沒有大膽的猜測,就沒有偉大的發現」;愛因斯坦謂:「我從未通過理性思考的過程取得任何發現」。

-----廣告,請繼續往下閱讀-----

致謝

謹在此感謝《泛科學》鄭國威、曹盛威、謝富丞、廖儀瑄、王喆宣等同仁的招待及讓我有機會當了一次近代科技 Podcast 的明星。Podcast 的出現造就了許多不需要經過好萊塢的影視明星以及網紅,是我首次接觸到之近代日常生活典範的另一個重大轉變,真是活到老學到老。

延伸閱讀

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

賴昭正_96
50 篇文章 ・ 61 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此獲有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪,IBM顧問研究化學家退休 。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲它轉載我的科學月刊上的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」。

0

1
0

文字

分享

0
1
0
解密機器人如何學會思考、觸摸與變形
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/09 ・6820字 ・閱讀時間約 14 分鐘

-----廣告,請繼續往下閱讀-----

本文與 Perplexity 合作,泛科學企劃執行

「Hello. I am… a robot.」

在我們的記憶裡,機器人的聲音就該是冰冷、單調,不帶一絲情感 。它們的動作僵硬,肢體不協調,像一個沒有靈魂的傀儡,甚至啟發我們創造了機械舞來模仿那獨特的笨拙可愛。但是,現今的機器人發展不再只會跳舞或模仿人聲,而是已經能獨立完成一場膽囊切除手術。

就在2025年,美國一間實驗室發表了一項成果:一台名為「SRT-H」的機器人(階層式手術機器人Transformer),在沒有人類醫師介入的情況下,成功自主完成了一場完整的豬膽囊切除手術。SRT-H 正是靠著從錯誤中學習的能力,最終在八個不同的離體膽囊上,達成了 100% 的自主手術成功率。

-----廣告,請繼續往下閱讀-----

這項成就的意義重大,因為過去機器人手術的自動化,大多集中在像是縫合這樣的單一「任務」上。然而,這一場完整的手術,是一個包含數十個步驟、需要連貫策略與動態調整的複雜「程序」。這是機器人首次在包含 17 個步驟的完整膽囊切除術中,實現了「步驟層次的自主性」。

這就引出了一個讓我們既興奮又不安的核心問題:我們究竟錯過了什麼?機器人是如何在我們看不見的角落,悄悄完成了從「機械傀儡」到「外科醫生」的驚人演化?

這趟思想探險,將為你解密 SRT-H 以及其他五款同樣具備革命性突破的機器人。你將看到,它們正以前所未有的方式,發展出生物般的觸覺、理解複雜指令、學會團隊合作,甚至開始自我修復與演化,成為一種真正的「準生命體」 。

所以,你準備好迎接這個機器人的新紀元了嗎?

-----廣告,請繼續往下閱讀-----

只靠模仿還不夠?手術機器人還需要學會「犯錯」與「糾正」

那麼,SRT-H 這位機器人的外科大腦,究竟藏著什麼秘密?答案就在它創新的「階層式框架」設計裡 。

你可以想像,SRT-H 的腦中,住著一個分工明確的兩人團隊,就像是漫畫界的傳奇師徒—黑傑克與皮諾可 。

  • 第一位,是動口不動手的總指揮「黑傑克」: 它不下達具體的動作指令,而是在更高維度的「語言空間」中進行策略規劃 。它發出的命令,是像「抓住膽管」或「放置止血夾」這樣的高層次任務指令 。
  • 第二位,是靈巧的助手「皮諾可」: 它負責接收黑傑克的語言指令,並將這些抽象的命令,轉化為機器手臂毫釐不差的精準運動軌跡 。

但最厲害的還不是這個分工,而是它們的學習方式。SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。但這還只是開始,研究人員在訓練過程中,會刻意讓它犯錯,並向它示範如何從抓取失敗、角度不佳等糟糕的狀態中恢復過來 。這種獨特的訓練方法,被稱為「糾正性示範」 。

SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。 / 圖片來源:shutterstock

這項訓練,讓 SRT-H 學會了一項外科手術中最關鍵的技能:當它發現執行搞砸了,它能即時識別偏差,並發出如「重試抓取」或「向左調整」等「糾正性指令」 。這套內建的錯誤恢復機制至關重要。當研究人員拿掉這個糾正能力後,機器人在遇到困難時,要不是完全失敗,就是陷入無效的重複行為中 。

-----廣告,請繼續往下閱讀-----

正是靠著這種從錯誤中學習、自我修正的能力,SRT-H 最終在八次不同的手術中,達成了 100% 的自主手術成功率 。

SRT-H 證明了機器人開始學會「思考」與「糾錯」。但一個聰明的大腦,足以應付更混亂、更無法預測的真實世界嗎?例如在亞馬遜的倉庫裡,機器人不只需要思考,更需要實際「會做事」。

要能精準地與環境互動,光靠視覺或聽覺是不夠的。為了讓機器人能直接接觸並處理日常生活中各式各樣的物體,它就必須擁有生物般的「觸覺」能力。

解密 Vulcan 如何學會「觸摸」

讓我們把場景切換到亞馬遜的物流中心。過去,這裡的倉儲機器人(如 Kiva 系統)就像放大版的掃地機器人,核心行動邏輯是極力「避免」與周遭環境發生任何物理接觸,只負責搬運整個貨架,再由人類員工挑出包裹。

-----廣告,請繼續往下閱讀-----

但 2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan。在亞馬遜的物流中心裡,商品被存放在由彈性帶固定的織物儲物格中,而 Vulcan 的任務是必須主動接觸、甚至「撥開」彈性織網,再從堆放雜亂的儲物格中,精準取出單一包裹,且不能造成任何損壞。

2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan / 圖片引用:https://www.aboutamazon.com/news

Vulcan 的核心突破,就在於它在「拿取」這個動作上,學會了生物般的「觸覺」。它靈活的機械手臂末端工具(EOAT, End-Of-Arm Tool),不僅配備了攝影機,還搭載了能測量六個自由度的力與力矩感測器。六個自由度包含上下、左右、前後的推力,和三個維度的旋轉力矩。這就像你的手指,裡頭分布著非常多的受器,不只能感測壓力、還能感受物體橫向拉扯、運動等感觸。

EOAT 也擁有相同精確的「觸覺」,能夠在用力過大之前即時調整力道。這讓 Vulcan 能感知推動一個枕頭和一個硬紙盒所需的力量不同,從而動態調整行為,避免損壞貨物。

其實,這更接近我們人類與世界互動的真實方式。當你想拿起桌上的一枚硬幣時,你的大腦並不會先計算出精準的空間座標。實際上,你會先把手伸到大概的位置,讓指尖輕觸桌面,再沿著桌面滑動,直到「感覺」到硬幣的邊緣,最後才根據觸覺決定何時彎曲手指、要用多大的力量抓起這枚硬幣。Vulcan 正是在學習這種「視覺+觸覺」的混合策略,先用攝影機判斷大致的空間,再用觸覺回饋完成最後精細的操作。

-----廣告,請繼續往下閱讀-----

靠著這項能力,Vulcan 已經能處理亞馬遜倉庫中約 75% 的品項,並被優先部署來處理最高和最低層的貨架——這些位置是最容易導致人類員工職業傷害的位置。這也讓自動化的意義,從單純的「替代人力」,轉向了更具建設性的「增強人力」。

SRT-H 在手術室中展現了「專家級的腦」,Vulcan 在倉庫中演化出「專家級的手」。但你發現了嗎?它們都還是「專家」,一個只會開刀,一個只會揀貨。雖然這種「專家型」設計能有效規模化、解決痛點並降低成本,但機器人的終極目標,是像人類一樣成為「通才」,讓單一機器人,能在人類環境中執行多種不同任務。

如何教一台機器人「舉一反三」?

你問,機器人能成為像我們一樣的「通才」嗎?過去不行,但現在,這個目標可能很快就會實現了。這正是 NVIDIA 的 GR00T 和 Google DeepMind 的 RT-X 等專案的核心目標。

過去,我們教機器人只會一個指令、一個動作。但現在,科學家們換了一種全新的教學思路:停止教機器人完整的「任務」,而是開始教它們基礎的「技能基元」(skill primitives),這就像是動作的模組。

-----廣告,請繼續往下閱讀-----

例如,有負責走路的「移動」(Locomotion) 基元,和負責抓取的「操作」(Manipulation) 基元。AI 模型會透過強化學習 (Reinforcement Learning) 等方法,學習如何組合這些「技能基元」來達成新目標。

舉個例子,當 AI 接收到「從冰箱拿一罐汽水給我」這個新任務時,它會自動將其拆解為一系列已知技能的組合:首先「移動」到冰箱前、接著「操作」抓住把手、拉開門、掃描罐子、抓住罐子、取出罐子。AI T 正在學會如何將這些單一的技能「融合」在一起。有了這樣的基礎後,就可以開始來大量訓練。

當多重宇宙的機器人合體練功:通用 AI 的誕生

好,既然要學,那就要練習。但這些機器人要去哪裡獲得足夠的練習機會?總不能直接去你家廚房實習吧。答案是:它們在數位世界裡練習

NVIDIA 的 Isaac Sim 等平台,能創造出照片級真實感、物理上精確的模擬環境,讓 AI 可以在一天之內,進行相當於數千小時的練習,獨自刷副本升級。這種從「模擬到現實」(sim-to-real)的訓練管線,正是讓訓練這些複雜的通用模型變得可行的關鍵。

-----廣告,請繼續往下閱讀-----

DeepMind 的 RT-X 計畫還發現了一個驚人的現象:用來自多種「不同類型」機器人的數據,去訓練一個單一的 AI 模型,會讓這個模型在「所有」機器人上表現得更好。這被稱為「正向轉移」(positive transfer)。當 RT-1-X 模型用混合數據訓練後,它在任何單一機器人上的成功率,比只用該機器人自身數據訓練的模型平均提高了 50%。

這就像是多重宇宙的自己各自練功後,經驗值合併,讓本體瞬間變強了。這意味著 AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。

AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。/ 圖片來源:shutterstock

不再是工程師,而是「父母」: AI 的新學習模式

這也導向了一個科幻的未來:或許未來可能存在一個中央「機器人大腦」,它可以下載到各種不同的身體裡,並即時適應新硬體。

這種學習方式,也從根本上改變了我們與機器人的互動模式。我們不再是逐行編寫程式碼的工程師,而是更像透過「示範」與「糾正」來教導孩子的父母。

NVIDIA 的 GR00T 模型,正是透過一個「數據金字塔」來進行訓練的:

  • 金字塔底層: 是大量的人類影片。
  • 金字塔中層: 是海量的模擬數據(即我們提過的「數位世界」練習)。
  • 金字塔頂層: 才是最珍貴、真實的機器人操作數據。

這種模式,大大降低了「教導」機器人新技能的門檻,讓機器人技術變得更容易規模化與客製化。

當機器人不再是「一個」物體,而是「任何」物體?

我們一路看到了機器人如何學會思考、觸摸,甚至舉一反三。但這一切,都建立在一個前提上:它們的物理形態是固定的。

但,如果連這個前提都可以被打破呢?這代表機器人的定義不再是固定的形態,而是可變的功能:它能改變身體來適應任何挑戰,不再是一台單一的機器,而是一個能根據任務隨選變化的物理有機體。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院特別具有代表性,該學院的仿生機器人實驗室(Bioinspired Robotics Group, BIRG)2007 年就打造模組化自重構機器人 Roombots。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院(EPFL)特別具有代表性。該學院的仿生機器人實驗室(BIRG)在 2007 年就已打造出模組化自重構機器人 Roombots。而 2023 年,來自 EPFL 的另一個實驗室——可重組機器人工程實驗室(RRL),更進一步推出了 Mori3,這是一套把摺紙藝術和電腦圖學巧妙融合的模組化機器人系統。

2023 年來自 EPFL 的另一個實驗室—可重組機器人工程實驗室(RRL)推出了 Mori3 © 2023 Christoph Belke, EPFL RRL

Mori3 的核心,是一個個小小的三角形模組。別看它簡單,每個模組都是一個獨立的機器人,有自己的電源、馬達、感測器和處理器,能獨立行動,也能和其他模組合作。最厲害的是,它的三條邊可以自由伸縮,讓這個小模組本身就具備「變形」能力。

當許多 Mori3 模組連接在一起時,就能像一群活的拼圖一樣,從平面展開,組合成各種三維結構。研究團隊將這種設計稱為「物理多邊形網格化」。在電腦圖學裡,我們熟悉的 3D 模型,其實就是由許多多邊形(通常是三角形)拼湊成的網格。Mori3 的創新之處,就是把這種純粹的數位抽象,真正搬到了現實世界,讓模組們化身成能活動的「實體網格」。

這代表什麼?團隊已經展示了三種能力:

  • 移動:他們用十個模組能組合成一個四足結構,它能從平坦的二維狀態站立起來,並開始行走。這不只是結構變形,而是真正的協調運動。
  • 操縱: 五個模組組合成一條機械臂,撿起物體,甚至透過末端模組的伸縮來擴大工作範圍。
  • 互動: 模組們能形成一個可隨時變形的三維曲面,即時追蹤使用者的手勢,把手的動作轉換成實體表面的起伏,等於做出了一個會「活」的觸控介面。

這些展示,不只是實驗室裡的炫技,而是真實證明了「物理多邊形網格化」的潛力:它不僅能構建靜態的結構,還能創造具備複雜動作的動態系統。而且,同一批模組就能在不同情境下切換角色。

想像一個地震後的救援場景:救援隊帶來的不是一台笨重的挖土機,而是一群這樣的模組。它們首先組合成一條長長的「蛇」形機器人,鑽入瓦礫縫隙;一旦進入開闊地後,再重組成一隻多足的「蜘蛛」,以便在不平的地面上穩定行走;發現受困者時,一部分模組分離出來形成「支架」撐住搖搖欲墜的橫樑,另一部分則組合成「夾爪」遞送飲水。這就是以任務為導向的自我演化。

這項技術的終極願景,正是科幻中的概念:可程式化物質(Programmable Matter),或稱「黏土電子學」(Claytronics)。想像一桶「東西」,你可以命令它變成任何你需要的工具:一支扳手、一張椅子,或是一座臨時的橋樑。

未來,我們只需設計一個通用的、可重構的「系統」,它就能即時創造出任務所需的特定機器人。這將複雜性從實體硬體轉移到了規劃重構的軟體上,是一個從硬體定義的世界,走向軟體定義的物理世界的轉變。

更重要的是,因為模組可以隨意分開與聚集,損壞時也只要替換掉部分零件就好。足以展現出未來機器人的適應性、自我修復與集體行為。當一群模組協作時,它就像一個超個體,如同蟻群築橋。至此,「機器」與「有機體」的定義,也將開始動搖。

從「實體探索」到「數位代理」

我們一路見證了機器人如何從單一的傀儡,演化為學會思考的外科醫生 (SRT-H)、學會觸摸的倉儲專家 (Vulcan)、學會舉一反三的通才 (GR00T),甚至是能自我重構成任何形態的「可程式化物質」(Mori3)。

但隨著機器人技術的飛速發展,一個全新的挑戰也隨之而來:在一個 AI 也能生成影像的時代,我們如何分辨「真實的突破」與「虛假的奇觀」?

舉一個近期的案例:2025 年 2 月,一則影片在網路上流傳,顯示一台人形機器人與兩名人類選手進行羽毛球比賽,並且輕鬆擊敗了人類。我的第一反應是懷疑:這太誇張了,一定是 AI 合成的影片吧?但,該怎麼驗證呢?答案是:用魔法打敗魔法。

在眾多 AI 工具中,Perplexity 特別擅長資料驗證。例如這則羽球影片的內容貼給 Perplexity,它馬上就告訴我:該影片已被查證為數位合成或剪輯。但它並未就此打住,而是進一步提供了「真正」在羽球場上有所突破的機器人—來自瑞士 ETH Zurich 團隊的 ANYmal-D

接著,選擇「研究模式」,就能深入了解 ANYmal-D 的詳細原理。原來,真正的羽球機器人根本不是「人形」,而是一台具備三自由度關節的「四足」機器人。

如果你想更深入了解,Perplexity 的「實驗室」功能,還能直接生成一份包含圖表、照片與引用來源的完整圖文報告。它不只介紹了 ANYmal-D 在羽球上的應用,更詳細介紹了瑞士聯邦理工學院發展四足機器人的完整歷史:為何選擇四足?如何精進硬體與感測器結構?以及除了運動領域外,四足機器人如何在關鍵的工業領域中真正創造價值。

AI 代理人:數位世界的新物種

從開刀、揀貨、打球,到虛擬練功,這些都是機器人正在學習「幫我們做」的事。但接下來,機器人將獲得更強的「探索」能力,幫我們做那些我們自己做不到的事。

這就像是,傳統網路瀏覽器與 Perplexity 的 Comet 瀏覽器之間的差別。Comet 瀏覽器擁有自主探索跟決策能力,它就像是數位世界裡的機器人,能成為我們的「代理人」(Agent)

它的核心功能,就是拆解過去需要我們手動完成的多步驟工作流,提供「專業代工」,並直接交付成果。

例如,你可以直接對它說:「閱讀這封會議郵件,檢查我的行事曆跟代辦事項,然後草擬一封回信。」或是直接下達一個複雜的指令:「幫我訂 Blue Origin 的太空旅遊座位,記得要來回票。」

接著,你只要兩手一攤,Perplexity 就會接管你的瀏覽器,分析需求、執行步驟、最後給你結果。你再也不用自己一步步手動搜尋,或是在不同網站上重複操作。

AI 代理人正在幫我們探索險惡的數位網路,而實體機器人,則在幫我們前往真實的物理絕境。

立即點擊專屬連結 https://perplexity.sng.link/A6awk/k74… 試用 Perplexity吧! 現在申辦台灣大哥大月付 599(以上) 方案,還可以獲得 1 年免費 Perplexity Pro plan 喔!(價值 新台幣6,750)

◆Perplexity 使用實驗室功能對 ANYmal-D 與團隊的全面分析 https://drive.google.com/file/d/1NM97…

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

0

2
1

文字

分享

0
2
1
一家公司撐起數位世界:疫情點燃晶片危機,ASML被推上地緣角力最前線——《造光者》
天下雜誌出版_96
・2025/09/03 ・1878字 ・閱讀時間約 3 分鐘

在微軟設於荷蘭的資料中心裡,電腦發出整齊劃一的嗡鳴。在這片海埔新生地上,成排機架上的伺服器吐出陣陣暖風,伴隨著奇特的嗡嗡聲迴盪不絕。走近細聽時,音調越發清晰,完美的高音 B。

「你聽到的是 GPU 的聲音,」維修人員解釋:「那是用來執行AI軟體的圖形處理晶片。」在隔壁同樣擺滿伺服器的機房裡,這裡的音調降到了低音 E。放眼望去,整個空間充斥著電腦設備發出的嗡嗡聲。

光是這座資料中心,微軟每月就要汰換三千台伺服器,以全新設備替換舊機。這樣做代價不菲,卻是必要:這些伺服器一旦停擺,雲端服務就會中斷。這項服務需要使用者的信賴,使用者必須確信這個由超大型資料中心所組成的全球網絡能夠全年無休地穩定運作。它們絕不許出任何差錯。

雖然名為「雲端」,但它實際上比你想像的更貼近地面。很少人會想到,這些其實都藏在荷蘭一片平凡無奇的海埔新生地上。長久以來,沒有人需要思考這些服務背後的真實面貌,一切都像往常一樣運轉,直到一個肉眼看不見的病毒讓全球停擺。

-----廣告,請繼續往下閱讀-----

疫情造成晶片荒

2020 年初,新冠疫情席捲全球。無論是否封城,都擋不住病毒的蔓延。公共生活陷入停滯,數位世界仍持續運轉。突然間,所有人都在家工作,都想同時開視訊會議,這導致微軟的雲端服務不時出現故障。Zoom、Teams 等原本鮮為人知的應用程式,因使用量暴增而備受關注。全球產生的資料量急速倍增,迫使微軟設在荷蘭的資料中心不得不動用卡車,搬運數千台額外的伺服器。這是維持 Teams 會議運作的唯一方法。隨著額外的算力、記憶體、GPU 的加入,機房中那個高音 B的聲調也越發響亮。

晶片需求暴增,引發一連串連鎖效應。不只資料中心的伺服器受到影響,筆記型電腦、螢幕、遊戲主機、Wi-Fi 路由器也被搶購一空,其他需要處理器、感測器、記憶體晶片的產業也出現短缺,汽車業受創最重。2020 年初,汽車製造商預期疫情會衝擊買車意願,紛紛縮減晶片訂單,後來證明這是個重大錯誤。

由於疫情已讓晶圓廠的產能滿載,汽車製造商的新訂單只能排在最後。晶片短缺的危機開始浮現。到了 2020 年底,數位儀表板、駕駛輔助系統、安全氣囊感測器的晶片都供不應求,生產線陸續停擺。想買新車要等一年以上,不然就只能退而求其次,選擇配備手搖窗戶而非電動車窗的車款。就像回到過去一樣,只能用人力來取代晶片。

台積電的不滿

在荷蘭,ASML接到一連串焦急的電話。對方傳達的訊息再清楚不過了:台積電非常不滿。

-----廣告,請繼續往下閱讀-----

疫情爆發後,台積電面臨一項棘手難題:台積電肩負著供應全球半數處理器的重責;在最頂級的高階晶片方面,更須確保全球九成的供貨量。在這個供應短缺期,各國都意識到他們對台灣晶片生產的依賴,這種依賴關係導致國際局勢漸趨緊張。

台積電背負著來自全球的壓力,各國憤怒的政要都迫切希望本國汽車產業恢復運轉:德國總理梅克爾致電要求加快對德國車廠的晶片供應,美國總統拜登也要求台積電優先供應美國車廠。而台積電則是向 ASML 施壓,要求 ASML 協助擴充產能,而且要快!此時全世界才真正意識到,他們有多麼依賴這些機台所生產的晶片。每個人都需要這些機台持續不斷地運轉。

長久以來,ASML 只需要因應自然法則。但自 2018 年起,ASML 發現它必須面對一個新挑戰:變幻莫測的地緣政治角力。中國正緊追著西方世界的腳步。美國為了在技術上牽制中國,試圖阻止中國使用 ASML 的設備來建立獨立的晶片生產線。美國認為這攸關國家安全:在他們看來,中國生產的每顆晶片都可能用於軍事目的。面對這個生存威脅,美國決心在 AI 和精密武器領域維持領先地位。這使得半導體業別無選擇,只能配合這個政策。

雖然這項策略最初是由川普政府提出,但最終是拜登總統下令加強出口管制,以凍結中國的技術發展。然而,美國也明白,光這樣做還不夠。他們需要盟友也配合實施出口限制,尤其是荷蘭——也就是 ASML 的配合。

-----廣告,請繼續往下閱讀-----

雖然 ASML 是在全球化的時代成長,但那個時代早已落幕。如今全球地緣政治的裂痕清晰可見,ASML 不得不審慎思考自己的立場。面對這種策略性的調整,沒有標準答案可循,一切抉擇都得自行承擔。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

天下雜誌出版_96
27 篇文章 ・ 21 位粉絲
天下雜誌出版持續製作與出版國內外好書,引進新趨勢、新做法,期盼能透過閱讀與活動實做,分享創新觀點、開拓視野、促進管理、領導、職場能力、教養教育、同時促進身心靈的美好生活。