0

0
0

文字

分享

0
0
0

想變成《攻殼機動隊》裡的機器人?抱歉,電腦還無法處理你的複雜大腦

林希陶_96
・2017/08/22 ・2840字 ・閱讀時間約 5 分鐘 ・SR值 522 ・七年級

科學之神啊!請給我一顆機器大腦吧!

想當初《攻殼機動隊》 1995 年在台灣上市,對於我的幼小心靈造成了多麼巨大的衝擊。我到現在還將書留在身邊,舊版的書只有前面七話,比新版的書薄了許多。當時看完書的第一個感想是:「如果有這樣的世界還真好,接一根電線就可以將知識都傳進來了,YA,不用唸書了,大家現在念得要死要活的是怎麼樣。」這是深受聯考荼毒的考生,最深刻的感受。

攻殼機動隊書本。左為新版,右為舊版。

不過經過了二十年的生命洗禮,現在再來思考《攻殼機動隊》所建構的科幻世界,就會知道現今的社會要變成書裡那樣,還不太可能。首先,人腦平均有 860 億個神經元1,這些神經元還需互有連結,一根都不能接錯,才有可能用電腦的方式完全模擬人腦。

光這樣的工程想來就不太可行2,更不用說大腦裡面的神經傳導無時無刻都在發生,這樣的景象,在電腦上仍否完全模擬,還有很大的疑問。除非我們能完全摸透大腦運作的模式,知道所有的神經衝動為何會開始、為何會結束,以及它們的關係是什麼?這還有賴科學家們持續努力。

午餐的選擇太多?機器人可沒這種煩惱

接著《攻殼機動隊》中,是把機器人(或者說生化人)等同於人,所有的運作都可以跟人類一樣。但如果接受機器人是由電腦所驅動的話,就必須先接受要先有指令,才會有成果。如果沒有指令(或內建的程式運作),就不可能會有結果產出。我覺得這是人類與機器人最大的不同。

-----廣告,請繼續往下閱讀-----

人類最可貴的地方,在於前額葉的功能。前額葉是一個複雜的總和能力,統稱為「執行能力」(Executive Function)。

執行功能是一組複雜的後設認知能力,其面向包含抽象能力、問題解決能力、計畫能力、組織能力、目標設定能力、工作記憶、抑制能力、自我監控能力、注意力控制、起始能力、預估能力、創造力等等。也就是說,前額葉告訴我們自己要做什麼事情,我們進入辦公室後,會自己規劃一天的行程,知道哪一件事情先做、哪一件事情後做,這些都屬於執行功能。前額葉就像是總司令的角色,協調腦中各個部位做出合宜的反應。就像是軍艦的艦長室一般,合適地發出適當的命令,船隻才知道要怎麼往正確的方向行動。

前額葉就像是總司令的角色,協調腦中各個部位做出合宜的反應。圖 /By jawavs @ flickr, CC BY 2.0

另外,前額葉最特別的地方在於,它會隨時改變主意。像是我們下班之後,本來計畫要去吃牛肉麵的,但是走到一半,你突然回想起上週才剛吃過牛肉麵,今天應該吃點不一樣的東西。停在紅路燈前,聞到煎餃飄出的香味、煎餃出爐吱吱作響的聲音、看到爐子飄出的煙霧,你突然覺得今天可以不吃牛肉麵了,改吃知名店家的煎餃好了,就立刻指揮自己的身體調頭,往煎餃店出發。

這是現今機械人不可能做到的事,因為他只會按照既定的指令行事,不會自己突然改變命令,自己又指示自己往別的地方前進。(當然,根據葛詹尼加(Michael S. Gazzaniga)的研究與看法,我們的大腦會有統一的感覺,是因為左腦有一個解譯器,他會自動幫我們行為加上合理的說法,讓我們可以解釋這些突如其來的行為1。)

鏡像神經元:電腦難以複製的同理心來源

如果再微觀一點看,人類跟機器人最大的不同,在於人類有鏡像神經元。

有了這個神經元,就能形成心智推理能力(Theory of mind)[註],也可視為同理心的起源。看到別人在受苦,自己大腦裡的鏡像神經元就會動作,讓身體的各部位也運作起來,並模擬起受苦的感受。

-----廣告,請繼續往下閱讀-----

這樣的能力,大約四到五歲就會發展出來,才有可能適度的理解別人,建立合宜的社交技巧。這是一個非常複雜的歷程,我實在不知道如果真要用程式驅動機器人的話,應該要怎麼寫才好。因為我們的模仿不只是表面的感受而已,而是連肌肉、內分泌、大腦中的神經衝動都會同時運作;唯有自己感同身受,我們才能真實地理解他人,對方也能迅速的接收這樣的訊息,進而使人與人之間聯繫在一起。這絕對是很細緻的,不是設定一兩個程式就能辦到的。

機器人要能做到這樣,肯定還有很長的路要走。(沒錯,我們可以說機器人就是「Mg U Cu Li Zn」!這裡另外介紹一部廣告,大家就可以知道人類的感情變化,不是三兩下就能模仿出來的。)

機器人缺乏鏡像神經元,沒有同理心。圖 /changehali @ flickr, CC BY 2.0

別擔心被機器人超越,至少我們認識自己

《攻殼機動隊》中一個很重要的主線,是在說明與傀儡師之間的鬥智。這裡面最神奇的一件事,就是傀儡師可以靠著一根傳輸線就將本體傳送到別的地方去,甚至他可以躲在資訊的大海之中,不被他人發現。故事中的設定,最後是將傀儡師定位為「失控的程式」,他因為發展出「自我意識」,而必須被追緝到案。

若以發展心理學的角度來看,要發展出自我意識,要先能認出自己的樣貌,才能知道自己是誰。

在 1970 年,知名的心理學家小蓋洛普(Gordon Gallup Jr.)發明出一種別緻的測量自我意識的方式:「鏡子測試」(Mirror test):在動物麻醉之後,在他們的臉上點上一個紅點,等到他們醒來,再將該動物放在鏡子前面。如果動物可以從鏡子中,認出自己的臉上多出一個紅點,就表示他們可以認出自己3。目前只有少數物種可以通過該測試,如人類、大型類人猿(黑猩猩、大猩猩)、鯨魚、海豚、亞洲象等等。幼兒要大約 20 至 24 個月才能理解該測試,也才逐步發展出自我概念。

-----廣告,請繼續往下閱讀-----
科學家會利用「鏡子測驗」來檢視動物的自我認知,僅有少數的動物會對鏡中的自我有反應。圖/ By Kadres @Pixabay

因此,若要瞭解機器人(程式)是否有自我意識,只要能通過該測試就算數。但回顧過去的研究,目前只有耶魯大學發表過一個案例4(發表的地方是會議論文,並非正式的審查期刊之上)。所以,大家也不擔心的太早,以為家門口前等著一堆機器人隨時要叛變。他們最應該學會的是:主動告訴你螢幕髒了,需要幫他們擦一擦。如果他們真能辦到,這才是人類與機器人爭鬥的開始。

總而言之,《攻殼機動隊》雖然是一部科幻神作,啟發了後世無數作品,但距離人類真實世界,絕不能以道里計。我們只要不停地發揮人類的優勢,「不時騰出時間,停下一切好好思考」。或許,未來世界人類仍有許多生存空間。

  • 註:人類天生有能力瞭解其他人的心裡有不同的欲望、企圖、信念與心智狀態,還有能力建立具有某種程度的理論來解釋那些欲望、企圖、信念與心智狀態為何。

參考資料

  1. 鍾沛君(譯)(2013)。我們真的有自由意志嗎?意識、抉擇與背後的大腦科學(Michael S. Gazzaniga)。台北:貓頭鷹。
  2. 系統神經科學的觀點─腦袋裡到底裝些什麼東西? (2017/04/27)。科學月刊。
  3. Gallup, G. G., Jr (1970). Chimpanzees: Self-recognition. Science, 167, 86-87. DOI: 10.1126/science.167.3914.86
  4. Gold and B. Scassellati (2007). A Bayesian Robot that Distinguishes “Self” from “Other”. In: Proceedings of the 29th Annual Meeting of the Cognitive Science Society (CogSci2007). Nashville, Tennessee.
-----廣告,請繼續往下閱讀-----
文章難易度
林希陶_96
80 篇文章 ・ 53 位粉絲
作者為臨床心理師,專長為臨床兒童心理病理、臨床兒童心理衡鑑、臨床兒童心理治療與親子教養諮詢。近來因生養雙胞胎,致力於嬰幼兒相關教養研究,並將科學育兒的經驗,集結為《心理師爸爸的心手育嬰筆記》。與許正典醫師合著有《125遊戲,提升孩子專注力》(1)~(6)、《99連連看遊戲,把專心變有趣》、《99迷宮遊戲,把專心變有趣》。並主持FB專頁:林希陶臨床心理師及部落格:暗香浮動月黃昏。

0

1
0

文字

分享

0
1
0
解密機器人如何學會思考、觸摸與變形
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/09 ・6820字 ・閱讀時間約 14 分鐘

-----廣告,請繼續往下閱讀-----

本文與 Perplexity 合作,泛科學企劃執行

「Hello. I am… a robot.」

在我們的記憶裡,機器人的聲音就該是冰冷、單調,不帶一絲情感 。它們的動作僵硬,肢體不協調,像一個沒有靈魂的傀儡,甚至啟發我們創造了機械舞來模仿那獨特的笨拙可愛。但是,現今的機器人發展不再只會跳舞或模仿人聲,而是已經能獨立完成一場膽囊切除手術。

就在2025年,美國一間實驗室發表了一項成果:一台名為「SRT-H」的機器人(階層式手術機器人Transformer),在沒有人類醫師介入的情況下,成功自主完成了一場完整的豬膽囊切除手術。SRT-H 正是靠著從錯誤中學習的能力,最終在八個不同的離體膽囊上,達成了 100% 的自主手術成功率。

-----廣告,請繼續往下閱讀-----

這項成就的意義重大,因為過去機器人手術的自動化,大多集中在像是縫合這樣的單一「任務」上。然而,這一場完整的手術,是一個包含數十個步驟、需要連貫策略與動態調整的複雜「程序」。這是機器人首次在包含 17 個步驟的完整膽囊切除術中,實現了「步驟層次的自主性」。

這就引出了一個讓我們既興奮又不安的核心問題:我們究竟錯過了什麼?機器人是如何在我們看不見的角落,悄悄完成了從「機械傀儡」到「外科醫生」的驚人演化?

這趟思想探險,將為你解密 SRT-H 以及其他五款同樣具備革命性突破的機器人。你將看到,它們正以前所未有的方式,發展出生物般的觸覺、理解複雜指令、學會團隊合作,甚至開始自我修復與演化,成為一種真正的「準生命體」 。

所以,你準備好迎接這個機器人的新紀元了嗎?

-----廣告,請繼續往下閱讀-----

只靠模仿還不夠?手術機器人還需要學會「犯錯」與「糾正」

那麼,SRT-H 這位機器人的外科大腦,究竟藏著什麼秘密?答案就在它創新的「階層式框架」設計裡 。

你可以想像,SRT-H 的腦中,住著一個分工明確的兩人團隊,就像是漫畫界的傳奇師徒—黑傑克與皮諾可 。

  • 第一位,是動口不動手的總指揮「黑傑克」: 它不下達具體的動作指令,而是在更高維度的「語言空間」中進行策略規劃 。它發出的命令,是像「抓住膽管」或「放置止血夾」這樣的高層次任務指令 。
  • 第二位,是靈巧的助手「皮諾可」: 它負責接收黑傑克的語言指令,並將這些抽象的命令,轉化為機器手臂毫釐不差的精準運動軌跡 。

但最厲害的還不是這個分工,而是它們的學習方式。SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。但這還只是開始,研究人員在訓練過程中,會刻意讓它犯錯,並向它示範如何從抓取失敗、角度不佳等糟糕的狀態中恢復過來 。這種獨特的訓練方法,被稱為「糾正性示範」 。

SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。 / 圖片來源:shutterstock

這項訓練,讓 SRT-H 學會了一項外科手術中最關鍵的技能:當它發現執行搞砸了,它能即時識別偏差,並發出如「重試抓取」或「向左調整」等「糾正性指令」 。這套內建的錯誤恢復機制至關重要。當研究人員拿掉這個糾正能力後,機器人在遇到困難時,要不是完全失敗,就是陷入無效的重複行為中 。

-----廣告,請繼續往下閱讀-----

正是靠著這種從錯誤中學習、自我修正的能力,SRT-H 最終在八次不同的手術中,達成了 100% 的自主手術成功率 。

SRT-H 證明了機器人開始學會「思考」與「糾錯」。但一個聰明的大腦,足以應付更混亂、更無法預測的真實世界嗎?例如在亞馬遜的倉庫裡,機器人不只需要思考,更需要實際「會做事」。

要能精準地與環境互動,光靠視覺或聽覺是不夠的。為了讓機器人能直接接觸並處理日常生活中各式各樣的物體,它就必須擁有生物般的「觸覺」能力。

解密 Vulcan 如何學會「觸摸」

讓我們把場景切換到亞馬遜的物流中心。過去,這裡的倉儲機器人(如 Kiva 系統)就像放大版的掃地機器人,核心行動邏輯是極力「避免」與周遭環境發生任何物理接觸,只負責搬運整個貨架,再由人類員工挑出包裹。

-----廣告,請繼續往下閱讀-----

但 2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan。在亞馬遜的物流中心裡,商品被存放在由彈性帶固定的織物儲物格中,而 Vulcan 的任務是必須主動接觸、甚至「撥開」彈性織網,再從堆放雜亂的儲物格中,精準取出單一包裹,且不能造成任何損壞。

2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan / 圖片引用:https://www.aboutamazon.com/news

Vulcan 的核心突破,就在於它在「拿取」這個動作上,學會了生物般的「觸覺」。它靈活的機械手臂末端工具(EOAT, End-Of-Arm Tool),不僅配備了攝影機,還搭載了能測量六個自由度的力與力矩感測器。六個自由度包含上下、左右、前後的推力,和三個維度的旋轉力矩。這就像你的手指,裡頭分布著非常多的受器,不只能感測壓力、還能感受物體橫向拉扯、運動等感觸。

EOAT 也擁有相同精確的「觸覺」,能夠在用力過大之前即時調整力道。這讓 Vulcan 能感知推動一個枕頭和一個硬紙盒所需的力量不同,從而動態調整行為,避免損壞貨物。

其實,這更接近我們人類與世界互動的真實方式。當你想拿起桌上的一枚硬幣時,你的大腦並不會先計算出精準的空間座標。實際上,你會先把手伸到大概的位置,讓指尖輕觸桌面,再沿著桌面滑動,直到「感覺」到硬幣的邊緣,最後才根據觸覺決定何時彎曲手指、要用多大的力量抓起這枚硬幣。Vulcan 正是在學習這種「視覺+觸覺」的混合策略,先用攝影機判斷大致的空間,再用觸覺回饋完成最後精細的操作。

-----廣告,請繼續往下閱讀-----

靠著這項能力,Vulcan 已經能處理亞馬遜倉庫中約 75% 的品項,並被優先部署來處理最高和最低層的貨架——這些位置是最容易導致人類員工職業傷害的位置。這也讓自動化的意義,從單純的「替代人力」,轉向了更具建設性的「增強人力」。

SRT-H 在手術室中展現了「專家級的腦」,Vulcan 在倉庫中演化出「專家級的手」。但你發現了嗎?它們都還是「專家」,一個只會開刀,一個只會揀貨。雖然這種「專家型」設計能有效規模化、解決痛點並降低成本,但機器人的終極目標,是像人類一樣成為「通才」,讓單一機器人,能在人類環境中執行多種不同任務。

如何教一台機器人「舉一反三」?

你問,機器人能成為像我們一樣的「通才」嗎?過去不行,但現在,這個目標可能很快就會實現了。這正是 NVIDIA 的 GR00T 和 Google DeepMind 的 RT-X 等專案的核心目標。

過去,我們教機器人只會一個指令、一個動作。但現在,科學家們換了一種全新的教學思路:停止教機器人完整的「任務」,而是開始教它們基礎的「技能基元」(skill primitives),這就像是動作的模組。

-----廣告,請繼續往下閱讀-----

例如,有負責走路的「移動」(Locomotion) 基元,和負責抓取的「操作」(Manipulation) 基元。AI 模型會透過強化學習 (Reinforcement Learning) 等方法,學習如何組合這些「技能基元」來達成新目標。

舉個例子,當 AI 接收到「從冰箱拿一罐汽水給我」這個新任務時,它會自動將其拆解為一系列已知技能的組合:首先「移動」到冰箱前、接著「操作」抓住把手、拉開門、掃描罐子、抓住罐子、取出罐子。AI T 正在學會如何將這些單一的技能「融合」在一起。有了這樣的基礎後,就可以開始來大量訓練。

當多重宇宙的機器人合體練功:通用 AI 的誕生

好,既然要學,那就要練習。但這些機器人要去哪裡獲得足夠的練習機會?總不能直接去你家廚房實習吧。答案是:它們在數位世界裡練習

NVIDIA 的 Isaac Sim 等平台,能創造出照片級真實感、物理上精確的模擬環境,讓 AI 可以在一天之內,進行相當於數千小時的練習,獨自刷副本升級。這種從「模擬到現實」(sim-to-real)的訓練管線,正是讓訓練這些複雜的通用模型變得可行的關鍵。

-----廣告,請繼續往下閱讀-----

DeepMind 的 RT-X 計畫還發現了一個驚人的現象:用來自多種「不同類型」機器人的數據,去訓練一個單一的 AI 模型,會讓這個模型在「所有」機器人上表現得更好。這被稱為「正向轉移」(positive transfer)。當 RT-1-X 模型用混合數據訓練後,它在任何單一機器人上的成功率,比只用該機器人自身數據訓練的模型平均提高了 50%。

這就像是多重宇宙的自己各自練功後,經驗值合併,讓本體瞬間變強了。這意味著 AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。

AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。/ 圖片來源:shutterstock

不再是工程師,而是「父母」: AI 的新學習模式

這也導向了一個科幻的未來:或許未來可能存在一個中央「機器人大腦」,它可以下載到各種不同的身體裡,並即時適應新硬體。

這種學習方式,也從根本上改變了我們與機器人的互動模式。我們不再是逐行編寫程式碼的工程師,而是更像透過「示範」與「糾正」來教導孩子的父母。

NVIDIA 的 GR00T 模型,正是透過一個「數據金字塔」來進行訓練的:

  • 金字塔底層: 是大量的人類影片。
  • 金字塔中層: 是海量的模擬數據(即我們提過的「數位世界」練習)。
  • 金字塔頂層: 才是最珍貴、真實的機器人操作數據。

這種模式,大大降低了「教導」機器人新技能的門檻,讓機器人技術變得更容易規模化與客製化。

當機器人不再是「一個」物體,而是「任何」物體?

我們一路看到了機器人如何學會思考、觸摸,甚至舉一反三。但這一切,都建立在一個前提上:它們的物理形態是固定的。

但,如果連這個前提都可以被打破呢?這代表機器人的定義不再是固定的形態,而是可變的功能:它能改變身體來適應任何挑戰,不再是一台單一的機器,而是一個能根據任務隨選變化的物理有機體。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院特別具有代表性,該學院的仿生機器人實驗室(Bioinspired Robotics Group, BIRG)2007 年就打造模組化自重構機器人 Roombots。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院(EPFL)特別具有代表性。該學院的仿生機器人實驗室(BIRG)在 2007 年就已打造出模組化自重構機器人 Roombots。而 2023 年,來自 EPFL 的另一個實驗室——可重組機器人工程實驗室(RRL),更進一步推出了 Mori3,這是一套把摺紙藝術和電腦圖學巧妙融合的模組化機器人系統。

2023 年來自 EPFL 的另一個實驗室—可重組機器人工程實驗室(RRL)推出了 Mori3 © 2023 Christoph Belke, EPFL RRL

Mori3 的核心,是一個個小小的三角形模組。別看它簡單,每個模組都是一個獨立的機器人,有自己的電源、馬達、感測器和處理器,能獨立行動,也能和其他模組合作。最厲害的是,它的三條邊可以自由伸縮,讓這個小模組本身就具備「變形」能力。

當許多 Mori3 模組連接在一起時,就能像一群活的拼圖一樣,從平面展開,組合成各種三維結構。研究團隊將這種設計稱為「物理多邊形網格化」。在電腦圖學裡,我們熟悉的 3D 模型,其實就是由許多多邊形(通常是三角形)拼湊成的網格。Mori3 的創新之處,就是把這種純粹的數位抽象,真正搬到了現實世界,讓模組們化身成能活動的「實體網格」。

這代表什麼?團隊已經展示了三種能力:

  • 移動:他們用十個模組能組合成一個四足結構,它能從平坦的二維狀態站立起來,並開始行走。這不只是結構變形,而是真正的協調運動。
  • 操縱: 五個模組組合成一條機械臂,撿起物體,甚至透過末端模組的伸縮來擴大工作範圍。
  • 互動: 模組們能形成一個可隨時變形的三維曲面,即時追蹤使用者的手勢,把手的動作轉換成實體表面的起伏,等於做出了一個會「活」的觸控介面。

這些展示,不只是實驗室裡的炫技,而是真實證明了「物理多邊形網格化」的潛力:它不僅能構建靜態的結構,還能創造具備複雜動作的動態系統。而且,同一批模組就能在不同情境下切換角色。

想像一個地震後的救援場景:救援隊帶來的不是一台笨重的挖土機,而是一群這樣的模組。它們首先組合成一條長長的「蛇」形機器人,鑽入瓦礫縫隙;一旦進入開闊地後,再重組成一隻多足的「蜘蛛」,以便在不平的地面上穩定行走;發現受困者時,一部分模組分離出來形成「支架」撐住搖搖欲墜的橫樑,另一部分則組合成「夾爪」遞送飲水。這就是以任務為導向的自我演化。

這項技術的終極願景,正是科幻中的概念:可程式化物質(Programmable Matter),或稱「黏土電子學」(Claytronics)。想像一桶「東西」,你可以命令它變成任何你需要的工具:一支扳手、一張椅子,或是一座臨時的橋樑。

未來,我們只需設計一個通用的、可重構的「系統」,它就能即時創造出任務所需的特定機器人。這將複雜性從實體硬體轉移到了規劃重構的軟體上,是一個從硬體定義的世界,走向軟體定義的物理世界的轉變。

更重要的是,因為模組可以隨意分開與聚集,損壞時也只要替換掉部分零件就好。足以展現出未來機器人的適應性、自我修復與集體行為。當一群模組協作時,它就像一個超個體,如同蟻群築橋。至此,「機器」與「有機體」的定義,也將開始動搖。

從「實體探索」到「數位代理」

我們一路見證了機器人如何從單一的傀儡,演化為學會思考的外科醫生 (SRT-H)、學會觸摸的倉儲專家 (Vulcan)、學會舉一反三的通才 (GR00T),甚至是能自我重構成任何形態的「可程式化物質」(Mori3)。

但隨著機器人技術的飛速發展,一個全新的挑戰也隨之而來:在一個 AI 也能生成影像的時代,我們如何分辨「真實的突破」與「虛假的奇觀」?

舉一個近期的案例:2025 年 2 月,一則影片在網路上流傳,顯示一台人形機器人與兩名人類選手進行羽毛球比賽,並且輕鬆擊敗了人類。我的第一反應是懷疑:這太誇張了,一定是 AI 合成的影片吧?但,該怎麼驗證呢?答案是:用魔法打敗魔法。

在眾多 AI 工具中,Perplexity 特別擅長資料驗證。例如這則羽球影片的內容貼給 Perplexity,它馬上就告訴我:該影片已被查證為數位合成或剪輯。但它並未就此打住,而是進一步提供了「真正」在羽球場上有所突破的機器人—來自瑞士 ETH Zurich 團隊的 ANYmal-D

接著,選擇「研究模式」,就能深入了解 ANYmal-D 的詳細原理。原來,真正的羽球機器人根本不是「人形」,而是一台具備三自由度關節的「四足」機器人。

如果你想更深入了解,Perplexity 的「實驗室」功能,還能直接生成一份包含圖表、照片與引用來源的完整圖文報告。它不只介紹了 ANYmal-D 在羽球上的應用,更詳細介紹了瑞士聯邦理工學院發展四足機器人的完整歷史:為何選擇四足?如何精進硬體與感測器結構?以及除了運動領域外,四足機器人如何在關鍵的工業領域中真正創造價值。

AI 代理人:數位世界的新物種

從開刀、揀貨、打球,到虛擬練功,這些都是機器人正在學習「幫我們做」的事。但接下來,機器人將獲得更強的「探索」能力,幫我們做那些我們自己做不到的事。

這就像是,傳統網路瀏覽器與 Perplexity 的 Comet 瀏覽器之間的差別。Comet 瀏覽器擁有自主探索跟決策能力,它就像是數位世界裡的機器人,能成為我們的「代理人」(Agent)

它的核心功能,就是拆解過去需要我們手動完成的多步驟工作流,提供「專業代工」,並直接交付成果。

例如,你可以直接對它說:「閱讀這封會議郵件,檢查我的行事曆跟代辦事項,然後草擬一封回信。」或是直接下達一個複雜的指令:「幫我訂 Blue Origin 的太空旅遊座位,記得要來回票。」

接著,你只要兩手一攤,Perplexity 就會接管你的瀏覽器,分析需求、執行步驟、最後給你結果。你再也不用自己一步步手動搜尋,或是在不同網站上重複操作。

AI 代理人正在幫我們探索險惡的數位網路,而實體機器人,則在幫我們前往真實的物理絕境。

立即點擊專屬連結 https://perplexity.sng.link/A6awk/k74… 試用 Perplexity吧! 現在申辦台灣大哥大月付 599(以上) 方案,還可以獲得 1 年免費 Perplexity Pro plan 喔!(價值 新台幣6,750)

◆Perplexity 使用實驗室功能對 ANYmal-D 與團隊的全面分析 https://drive.google.com/file/d/1NM97…

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

0

17
4

文字

分享

0
17
4
為機器人換上「物理大腦」:一場終結AI數位囚禁的革命
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/03 ・5732字 ・閱讀時間約 11 分鐘

本文與 研華科技 合作,泛科學企劃執行

我們都看過那種影片,對吧?網路上從不缺乏讓人驚嘆的機器人表演:數十台人形機器人像軍隊一樣整齊劃一地耍雜技 ,或是波士頓動力的機器狗,用一種幾乎違反物理定律的姿態後空翻、玩跑酷 。每一次,社群媒體總會掀起一陣「未來已來」、「人類要被取代了」的驚呼 。

但當你關掉螢幕,看看四周,一個巨大的落差感就來了:說好的機器人呢?為什麼大街上沒有他們的身影,為什麼我家連一件衣服都還沒人幫我摺?

這份存在於數位螢幕與物理現實之間的巨大鴻溝,源於一個根本性的矛盾:當代AI在數位世界裡聰明絕頂,卻在物理世界中笨拙不堪。它可以寫詩、可以畫畫,但它沒辦法為你端一杯水。

-----廣告,請繼續往下閱讀-----

這個矛盾,在我們常見的兩種機器人展示中體現得淋漓盡致。第一種,是動作精準、甚至會跳舞的類型,這本質上是一場由工程師預先寫好劇本的「戲」,機器人對它所處的世界一無所知 。第二種,則是嘗試執行日常任務(如開冰箱、拿蘋果)的類型,但其動作緩慢不穩,彷彿正在復健的病人 。

這兩種極端的對比,恰恰點出了機器人技術的真正瓶頸:它們的「大腦」還不夠強大,無法即時處理與學習真實世界的突發狀況 。

這也引出了本文試圖探索的核心問題:新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦,真的能終結機器人的「復健時代」,開啟一個它們能真正理解、並與我們共同生活的全新紀元嗎?

新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦 / 圖片來源:研華科技

為何我們看到的機器人,總像在演戲或復健?

那我們怎麼理解這個看似矛盾的現象?為什麼有些機器人靈活得像舞者,有些卻笨拙得像病人?答案,就藏在它們的「大腦」運作方式裡。

-----廣告,請繼續往下閱讀-----

那些動作極其精準、甚至會後空翻的機器人,秀的其實是卓越的硬體性能——關節、馬達、減速器的完美配合。但它的本質,是一場由工程師預先寫好劇本的舞台劇 。每一個角度、每一分力道,都是事先算好的,機器人本身並不知道自己為何要這麼做,它只是在「執行」指令,而不是在「理解」環境。

而另一種,那個開冰箱慢吞吞的機器人,雖然看起來笨,卻是在做一件革命性的事:它正在試圖由 AI 驅動,真正開始「理解」這個世界 。它在學習什麼是冰箱、什麼是蘋果、以及如何控制自己的力量才能順利拿起它。這個過程之所以緩慢,正是因為過去驅動它的「大腦」,也就是 AI 晶片的算力還不夠強,無法即時處理與學習現實世界中無窮的變數 。

這就像教一個小孩走路,你可以抱著他,幫他擺動雙腿,看起來走得又快又穩,但那不是他自己在走。真正的學習,是他自己搖搖晃晃、不斷跌倒、然後慢慢找到平衡的過程。過去的機器人,大多是前者;而我們真正期待的,是後者。

所以,問題的核心浮現了:我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好?

-----廣告,請繼續往下閱讀-----
我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好? / 圖片來源:shutterstock

機器人的大腦,為什麼不能放在雲端?

聽起來好像很合理,對吧?把所有複雜的運算都交給雲端最強大的伺服器,機器人本身只要負責接收指令就好了。但……真的嗎?

想像一下,如果你的大腦在雲端,你看到一個球朝你飛過來,視覺訊號要先上傳到雲端,雲端分析完,再把「快閃開」的指令傳回你的身體。這中間只要有零點幾秒的網路延遲,你大概就已經鼻青臉腫了。

現實世界的互動,需要的是「即時反應」。任何網路延遲,在物理世界中都可能造成無法彌補的失誤 。因此,運算必須在機器人本體上完成,這就是「邊緣 AI」(Edge AI)的核心概念 。而 NVIDIA  Jetson 平台,正是為了解決這種在裝置端進行高運算、又要兼顧低功耗的需求,而誕生的關鍵解決方案 。

NVIDIA Jetson 就像一個緊湊、節能卻效能強大的微型電腦,專為在各種裝置上運行 AI 任務設計 。回顧它的演進,早期的 Jetson 系統主要用於視覺辨識搭配AI推論,像是車牌辨識、工廠瑕疵檢測,或者在相機裡分辨貓狗,扮演著「眼睛」的角色,看得懂眼前的事物 。但隨著算力提升,NVIDIA Jetson 的角色也逐漸從單純的「眼睛」,演化為能夠控制手腳的「大腦」,開始驅動更複雜的自主機器,無論是地上跑的、天上飛的,都將NVIDIA Jetson 視為核心運算中樞 。

-----廣告,請繼續往下閱讀-----

但再強大的晶片,如果沒有能適應現場環境的「容器」,也無法真正落地。這正是研華(Advantech)的角色,我們將 NVIDIA Jetson 平台整合進各式工業級主機與邊緣運算設備,確保它能在高熱、灰塵、潮濕或震動的現場穩定運行,滿足從工廠到農場到礦場、從公車到貨車到貨輪等各種使用環境。換句話說,NVIDIA 提供「大腦」,而研華則是讓這顆大腦能在真實世界中呼吸的「生命支持系統」。

這個平台聽起來很工業、很遙遠,但它其實早就以一種你意想不到的方式,進入了我們的生活。

從Switch到雞蛋分揀員,NVIDIA Jetson如何悄悄改變世界?

如果我告訴你,第一代的任天堂Switch遊戲機與Jetson有相同血緣,你會不會很驚訝?它的核心處理器X1晶片,與Jetson TX1模組共享相同架構。這款遊戲機對高效能運算和低功耗的嚴苛要求,正好與 Jetson 的設計理念不謀而合 。

而在更專業的領域,研華透過 NVIDIA Jetson 更是解決了許多真實世界的難題 。例如

-----廣告,請繼續往下閱讀-----
  • 在北美,有客戶利用 AI 進行雞蛋品質檢測,研華的工業電腦搭載NVIDIA Jetson 模組與相機介面,能精準辨識並挑出髒污、雙黃蛋到血蛋 
  • 在日本,為避免鏟雪車在移動時發生意外,導入了環繞視覺系統,當 AI 偵測到周圍有人時便會立刻停止 ;
  • 在水資源珍貴的以色列,研華的邊緣運算平台搭載NVIDIA Jetson模組置入無人機內,24 小時在果園巡航,一旦發現成熟的果實就直接凌空採摘,實現了「無落果」的終極目標 。

這些應用,代表著 NVIDIA Jetson Orin™ 世代的成功,它讓「自動化」設備變得更聰明 。然而,隨著大型語言模型(LLM)的浪潮來襲,人們的期待也從「自動化」轉向了「自主化」 。我們希望機器人不僅能執行命令,更能理解、推理。

Orin世代的算力在執行人形機器人AI推論時的效能約為每秒5到10次的推論頻率,若要機器人更快速完成動作,需要更強大的算力。業界迫切需要一個更強大的大腦。這也引出了一個革命性的問題:AI到底該如何學會「動手」,而不只是「動口」?

革命性的一步:AI如何學會「動手」而不只是「動口」?

面對 Orin 世代的瓶頸,NVIDIA 給出的答案,不是溫和升級,而是一次徹底的世代跨越— NVIDIA Jetson Thor 。這款基於最新 Blackwell 架構的新模組,峰值性能是前代的 7.5 倍,記憶體也翻倍 。如此巨大的效能提升,目標只有一個:將過去只能在雲端資料中心運行的、以 Transformer 為基礎的大型 AI 模型,成功部署到終端的機器上 。

NVIDIA Jetson Thor 的誕生,將驅動機器人控制典範的根本轉變。這要從 AI 模型的演進說起:

-----廣告,請繼續往下閱讀-----
  1. 第一階段是 LLM(Large Language Model,大型語言模型):
    我們最熟悉的 ChatGPT 就屬此類,它接收文字、輸出文字,實現了流暢的人機對話 。
  2. 第二階段是 VLM(Vision-Language Model,視覺語言模型):
    AI 學會了看,可以上傳圖片,它能用文字描述所見之物,但輸出結果仍然是給人類看的自然語言 。
  3. 第三階段則是 VLA(Vision-Language-Action Model,視覺語言行動模型):
    這是革命性的一步。VLA 模型的輸出不再是文字,而是「行動指令(Action Token)」 。它能將視覺與語言的理解,直接轉化為控制機器人關節力矩、速度等物理行為的具體參數 。

這就是關鍵! 過去以NVIDIA Jetson Orin™作為大腦的機器人,僅能以有限的速度運行VLA模型。而由 VLA 模型驅動,讓 AI 能夠感知、理解並直接與物理世界互動的全新形態,正是「物理 AI」(Physical AI)的開端 。NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 。

NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 / 圖片來源:研華科技

其中,物理 AI 強調的 vision to action,就需要研華設計對應的硬體來實現;譬如視覺可能來自於一般相機、深度相機、紅外線相機甚至光達,你的系統就要有對應的介面來整合視覺;你也會需要控制介面去控制馬達伸長手臂或控制夾具拿取物品;你也要有 WIFI、4G 或 5G 來傳輸資料或和別的 AI 溝通,這些都需要具體化到一個系統上,這個系統的集大成就是機器人。

好,我們有了史上最強的大腦。但一個再聰明的大腦,也需要一副強韌的身體。而這副身體,為什麼非得是「人形」?這不是一種很沒效率的執念嗎?

為什麼機器人非得是「人形」?這不是一種低效的執念嗎?

這是我一直在思考的問題。為什麼業界的主流目標,是充滿挑戰的「人形」機器人?為何不設計成效率更高的輪式,或是功能更多元的章魚型態?

-----廣告,請繼續往下閱讀-----

答案,簡單到令人無法反駁:因為我們所處的世界,是徹底為人形生物所打造的。

從樓梯的階高、門把的設計,到桌椅的高度,無一不是為了適應人類的雙足、雙手與身高而存在 。對 AI 而言,採用人形的軀體,意味著它能用與我們最相似的視角與方式去感知和學習這個世界,進而最快地理解並融入人類環境 。這背後的邏輯是,與其讓 AI 去適應千奇百怪的非人形設計,不如讓它直接採用這個已經被數千年人類文明「驗證」過的最優解 。

這也區分了「通用型 AI 人形機器人」與「專用型 AI 工業自動化設備」的本質不同 。後者像高度特化的工具,產線上的機械手臂能高效重複鎖螺絲,但它無法處理安裝柔軟水管這種預設外的任務 。而通用型人形機器人的目標,是成為一個「多面手」,它能在廣泛學習後,理解物理世界的運作規律 。理論上,今天它在產線上組裝伺服器,明天就能在廚房裡學會煮菜 。

人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態 / 圖片來源:shutterstock

但要讓一個「多面手」真正活起來,光有骨架還不夠。它必須同時擁有強大的大腦平台與遍布全身的感知神經,才能理解並回應外在環境。人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態。但這些訊號若沒有通過一個穩定的「大腦平台」,就無法匯聚成有意義的行動。

這正是研華的角色:我們不僅把 NVIDIA Jetson Thor 這顆核心晶片包載在工業級電腦中,讓它成為能真正思考與反應的「完整大腦」,同時也提供神經系統的骨幹,將感測器、I/O 介面與通訊模組可靠地連結起來,把訊號傳導進大腦。你或許看不見研華的存在,但它實際上遍布在機器人全身,像隱藏在皮膚之下的神經網絡,讓整個身體真正活過來。

但有了大腦、有了身體,接下來的挑戰是「教育」。你要怎麼教一個物理 AI?總不能讓它在現實世界裡一直摔跤,把一台幾百萬的機器人摔壞吧?

打造一個「精神時光屋」,AI的學習速度能有多快?

這個問題非常關鍵。大型語言模型可以閱讀網際網路上浩瀚的文本資料,但物理世界中用於訓練的互動資料卻極其稀缺,而且在現實中反覆試錯的成本與風險實在太高 。

答案,就在虛擬世界之中。

NVIDIA Isaac Sim™等模擬平台,為這個問題提供了完美的解決方案 。它能創造出一個物理規則高度擬真的數位孿生(Digital Twin)世界,讓 AI 在其中進行訓練 。

這就像是為機器人打造了一個「精神時光屋」 。它可以在一天之內,經歷相當於現實世界千百日的學習與演練,從而在絕對安全的環境中,窮盡各種可能性,深刻領悟物理世界的定律 。透過這種「模擬-訓練-推論」的 3 Computers 閉環,Physical AI (物理AI) 的學習曲線得以指數級加速 。

我原本以為模擬只是為了節省成本,但後來發現,它的意義遠不止於此。它是在為 AI 建立一種關於物理世界的「直覺」。這種直覺,是在現實世界中難以透過有限次的試錯來建立的。

所以你看,這趟從 Switch 到人形機器人的旅程,一幅清晰的未來藍圖已經浮現了。實現物理 AI 的三大支柱已然齊備:一個劃時代的「AI 大腦」(NVIDIA Jetson Thor)、讓核心延展為「完整大腦與神經系統」的工業級骨幹(由研華 Advantech 提供),以及一個不可或缺的「教育環境」(NVIDIA Isaac Sim 模擬平台) 。

結語

我們拆解了那些酷炫機器人影片背後的真相,看見了從「自動化」走向「自主化」的巨大技術鴻溝,也見證了「物理 AI」時代的三大支柱——大腦、身軀、與教育——如何逐一到位 。

專家預測,未來 3 到 5 年內,人形機器人領域將迎來一場顯著的革命 。過去我們只能在科幻電影中想像的場景,如今正以前所未有的速度成為現實 。

這不再只是一個關於效率和生產力的問題。當一台機器,能夠觀察我們的世界,理解我們的語言,並開始以物理實體的方式與我們互動,這將從根本上改變我們與科技的關係。

所以,最後我想留給你的思想實驗是:當一個「物理 AI」真的走進你的生活,它不只是個工具,而是一個能學習、能適應、能與你共同存在於同一個空間的「非人智慧體」,你最先感受到的,會是興奮、是便利,還是……一絲不安?

這個問題,不再是「我們能否做到」,而是「當它發生時,我們準備好了嗎?」

研華已經整裝待發,現在,我們與您一起推動下一代物理 AI 與智慧設備的誕生。
https://bit.ly/4n78dR4

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

1

4
2

文字

分享

1
4
2
宇宙文明演化史(下):文明蘊含的資訊量與精細結構的掌握
Castaly Fan (范欽淨)_96
・2023/06/27 ・4854字 ・閱讀時間約 10 分鐘

編按:說到星際文明的發展程度,科幻愛好者必定會提到「卡爾達肖夫指數」,以使用的能源多寡,來區分文明發達程度。然而,除了從能源來評斷文明進程,其實還有其他的評判方式。

「宇宙文明演化史」系列,將在上篇回顧「卡爾達肖夫指數」,下篇介紹較少討論的「資訊量」與「微觀尺度」的評斷觀點。

資訊量的掌握層級

卡爾達肖夫指數是以「能量」作為文明分級的依據。同時,薩根(Carl Sagan)也有提出不同的分類法。他將文明所擁有的「資訊含量」作為依據,將文明分出「A — Z 級」。這些資訊量的定義很廣泛,語言、文字、影像都屬於資訊量的一部分。

在薩根的分類法中,「A 級」文明能掌握 106 位元的資訊,但目前人類史上的任何一個文明所掌握的資訊量都比這個數目還多。要超越一個 A 級文明相當簡單,比如:你只需要用「二分法」試探,例如判斷這個文明「是存在還是消亡的」。探問過二十次這樣的問題後,相當於掌握了 220 種可能性,這個數字剛好略大於 106

也就是說,這已然囊括了一個 A 級文明的所有資訊,一旦通過了這個二分法測試,就可以被判定為 B 級文明。以此類推,當人類所擁有的資訊量每增加十倍、便對應到不同的字母分級,因此,在這個分類中最為先進的是「Z 級」文明、相當於能掌握 1031 位元的資訊量。

資訊量的爆炸最早可以追溯至文字發明開始,書面文字使得人類得以記載當下、乃至於過去發生的一切歷史。古希臘時代所有的書面文物加總起來大概對應於 109 位元的資訊量,相當於薩根筆下的 C 級文明。1970、80 年代,薩根從全世界所有藏書館數以千萬計的藏書總量、頁數進行統計,我們人類從歷史上至當代所擁有的文字、語言、圖像等資訊含量總計大約是 10¹⁵ 位元,因此被歸類為「0.7 H」類文明。

-----廣告,請繼續往下閱讀-----

而資訊量的第二次大爆炸莫過於網際網路的誕生。當網路普及後,無論是科學、經濟、政治、醫療、娛樂、藝術等包羅萬象的事物,都裝載在網際網路之中。2016 年,全球網路所涵括的總資訊量大概是 1.3 ZB (zettabytes),大約相當於 1022 位元,對應於 Q 級文明。根據國際資訊公司(IDC)預測,人類所擁有的數據庫資訊總量在 2025 年可以達到 175 ZB,相當於 1024 位元——也就是說,當前人類正在往「S 級文明」邁進。

有趣的是,薩根推測人類初次接觸到的外星文明應當是 1.5 J 到 1.8 K 類的文明,通常他們已然克服恆星際旅行的瓶頸。至於卡爾達肖夫的第 II 型文明,大約對應於 Q 類文明;而得以掌控可觀測宇宙大部分星系的 III 型文明,則可以達到 Z 類文明的水平。畢竟掌握時空旅行需要相當複雜的計算與模擬,需要遠超越當今的人類設備所擁有的一切運算能力。

然而,從目前的角度來看,顯而易見地——我們早已超越了他所預測的第 II 型文明等級。這是因為薩根在當時提出這個分類法時,尚未預測到數十年後的今天資訊量會隨著網路的出現而劇增。即使在薩根指數定義的資訊量必須是「單一而不重複的」(比如 A 網站的圖片是從B網站引用來的、同時 C 網站也使用了該圖片,我們只能將該影像視為一組位元、而非三組),但這些資訊在枝繁葉茂的網路時代已然是幾乎不可能被估算的。

因此,薩根的這個分級法在網際網路出現後便可能無法作為合適的指標,但卡爾達肖夫指數目前依然能適用;換言之,資訊量急速暴增似乎也側面反映了「能量」對於人類而言比「資訊量」更難駕馭的事實。

-----廣告,請繼續往下閱讀-----
2000 年代之後,網際網路的發軔造就了資訊量呈指數成長。圖/Statista

微觀尺度的操作層級

另一個有關文明的分級是由英國宇宙學家約翰.巴羅(John D. Barrow)所提出的,是基於人類對於「微觀尺度」的「操作程度」。他發現,科學史上人類似乎不斷朝著微小尺度的事物進行探索,從生活中隨處可見的宏觀機械裝置、顯微鏡下的分析、到分子原子尺度的研究,某種程度上,「探測尺度」似乎與文明發達程度成正比。他將文明發達程度區分為下列等級:

  1. 負 I 型文明(機械文明)
    該文明能操控與個體同等尺度的一切物件,比如採礦、建築樓房、使用機械裝置等等。
  2. 負 II 型文明(生物工程文明)
    該文明能操控基因序列,或者藉由移植組織、器官來改變生命體的特性。
  3. 負 III 型文明(化學工程文明)
    該文明能操控分子,比如透過改變分子鍵結創造新物質。
  4. 負 IV 型文明(奈米文明)
    該文明得以操控個別原子,實現奈米科技在原子尺度的應用,並可能透過科技創造出複雜的人造生命體。
  5. 負 V 型文明(核子文明)
    該文明得以操控原子核,並能自由改造組成原子核的質子、中子。
  6. 負 VI 型文明(粒子文明)
    該文明將能操控夸克、輕子等組成萬物的基本粒子,並且能隨心所欲聚集粒子、駕馭高能量。
  7. 負 Ω 型文明(時空文明)
    該文明將能操控普朗克尺度(10-35 公尺)下的事物,比如量子泡沫(quantum foam)等微觀時空結構;他們將有能力透過負能量或者奇異物質控制、放大隨機漲落的蟲洞,從而具備實現時空旅行的能力。

顯而易見地,人類距離負 Ω 型文明依然來日方長。目前,人類能夠自由操控與我們相同尺度的機械物件,可以建築、採礦,也可以完成一些簡單的基因工程;在近一個世紀內,我們掌握了相對論、發明了人造衛星與 GPS,同時也因為量子力學的發跡,打造出各式各樣的電子產品。但我們尚未能夠自由改變分子鍵結、發明新物質的能力也是侷限的、更無法隨心所欲操控並改變原子結構,因此目前人類大概落在負 I 型文明與負 II 型文明之間。

尺度的數量級:愈先進的文明可能可以探測到愈微觀的結構。圖/筆者繪製

從物理學的角度來看,「探測尺度」和卡爾達肖夫指數的「能量」其實也是可以呼應的。由於相對論告訴我們宇宙中萬物都有一個速限,也就是光速,這意味著無論是能量、溫度、尺度、甚至時間單位都有一個極限值,也就是「普朗克單位」。在歷史上各種對撞機實驗告訴我們一個事實:當對撞機的能量愈高,人類所能探測的尺度就愈小。

事實上,普朗克能量(約 1.96x10^9 焦耳,相當於一輛車中 16 加侖汽油槽所提供的能量——貌似普通,然而這個值在微觀尺度下是相當大的,「焦耳」這單位在微觀世界大概相當於用「光年」換算人類尺度的距離)對應於一個普朗克質量黑洞的史瓦西半徑(約 10^(-35) 公尺,亦即普朗克尺度);用通俗的語言來說就是:一旦對撞機能量值大於普朗克能量,相當於把對應的質量壓縮到了小於史瓦西半徑的尺度,從而產生「黑洞」——即使是微型黑洞,也意味著我們的探測將被黑洞視界所設限。

-----廣告,請繼續往下閱讀-----

換句話說,普朗克能量相當於我們能探測普朗克尺度的所需能量;一旦超越了這個值,我們的探測將因為黑洞的產生而不再精確。因此,即使是一個無限發達的文明,普朗克長度將會成為探測尺度的最終極限,小於普朗克尺度的事物便不再具有物理意義——要注意的是,這些事實是基於目前「已知的物理理論」,假設未來文明已經掌握了結合量子場論與廣義相對論的萬有理論,這些極限值並不是沒有被推翻的可能性。

對於未來文明的展望

從最基本有機分子、形成碳基生命體、再演化成為人類這樣的智慧生命,這樣的機率可以說是趨近於零,也因為如此,才有「地球殊異假說」、甚至是「創造論」這些爭辯。我們必須剛好躲過演化史上的大滅絕事件,並且在安穩的自然環境下演化為智人。這段過程還要大概經過一、兩百萬年後,才開始有文明的誕生;而縱觀整個人類史,科學正式發跡至今其實也就只有幾百年。

把地球 46 億年的歷史濃縮在一份年曆上,人類進入舊石器時代大概對應於 12 月 31 號晚上 11 點,大概跨年前 25 秒才進入新石器時代,而從文藝復興、大航海時代、科學革命至今,在這年曆的尺度下其實根本還不到一秒鐘。這還僅僅只是地球史的尺度——如果考量到 137 億年的宇宙史尺度,科技文明的興起根本是連一瞬間都還不到的事,可見人類的科技目前還算是相當稚嫩的。

科幻作品中那些搭乘星艦、遨遊星際空間的劇情,大多數便是 II 型文明;至於可以利用曲速引擎穿越時空的,或許是 III 型文明才能實現的。對於 II 型文明而言,他們或許能夠透過「戴森球」(Dyson sphere)控制恆星能量的輸出。當一個文明的工業發達到一個程度,便能夠駕馭恆星能量,搭建一系列能源板或人造衛星,從而環繞著恆星本體、調控能量的輸出,這種大規模的人造結構便稱為「戴森球」。

-----廣告,請繼續往下閱讀-----

要建造這類型的結構,目前所知的方法大概就是藉由太空梭或者人造衛星在行星軌道上搭建一圈能源板,並可能需要碳纖維或者更堅韌且輕便的材料。

最基本的構造大概是建構一圈「戴森環」,再來是更多戴森環組裝成的「戴森雲」,或者可以透過光壓與重力的平衡打造出更完整的「戴森泡」;如果科技更發達,則有機會建造出完整且均勻的球殼包覆著恆星以及周圍的行星,也就是「戴森殼」,這類型結構基本上可以完全駕馭母恆星的能量、並且可以將球殼內層表面改建為太空殖民地——但這以目前人類科技水平、或者資金限制等各層面而言,數百年內是不太可能實現的。

先進文明所建造的「戴森球」想像圖。圖/space.com

2015 年,恆星 KIC 8462852 的光變曲線一度成為天文學界的謎團,因為當時天文學家們觀測到該恆星的光譜有異常,且這一異常用傳統模型(比如周邊小行星帶、彗星雲氣等理論)是無法解釋的,因此,有一部份天文學家猜測該恆星的光度變化可能源於「人造巨型結構」;也就是說,能造成光譜像觀測結果那樣異常變化的原因,唯一合理的可能性就是「戴森球」的環繞與掩蔽。

這項研究吸引了當時不少外星愛好者的興趣,畢竟這顆恆星很可能正被高等外星文明所搭建的一系列巨大人工建築圍繞著!然而,根據 2019 至 2021 年的最新研究,發現了這顆恆星其實有一顆「伴星」在外圍,而系外衛星的殘骸大規模地遮蔽了恆星、致使光度出現異常。因此,目前並沒有證據指出戴森球這種人工結構真實存在。

-----廣告,請繼續往下閱讀-----

綜上所述,人類文明目前還算是新生兒,也或許,宇宙中還沒有更先進的文明出現。但在躍升為第 I 型文明之前,我們恐怕會經歷各種挑戰,而有些已經發生過、有些則或許正在醞釀,例如——宗教戰爭、糧食危機、核武威脅、氣候災難等等。

從目前看來,氣候變遷便是當務之急:人類過度排放溫室氣體,溫室效應導致了海平面上升、全球暖化,間接引發了各地氣候的異常、熱浪、饑荒,並一再落入惡性循環。此外,在二戰期間人類發明並使用了核子武器,其毀滅性更是不容輕忽的。我們尚不需考慮火山、地震這些自然災害,若無法擺脫上述這些境況,人類很有可能會在蛻變為 I 型文明前便自取滅亡。

人類文明雖然已有一定的科技水平,然而在卡爾達肖夫指數中,目前仍處於第 0.7 型文明。在躍升成為I型文明之前,有可能面臨生態危機、核子戰爭而自取滅亡。上圖為正在排放溫室氣體的工業煙囪。圖/Economist Intelligence Unit

因此,在未來數十年內,除了科技的提升以外,人類的當務之急是避免氣候災害與核武戰爭的發生。而人類對於星系文明的好奇與嚮往從未間斷,誠如 1977 年發射至太空的航海家金唱片中、美國總統吉米.卡特所提及的:

「我們正邁步度過我們的年月,好讓我們得以共生於你們的時代。我們期望有朝一日,能夠共同解決彼此所面臨的難題,並且聯合組成一個星系文明共同體。」

-----廣告,請繼續往下閱讀-----

We are attempting to survive our time so we may live into yours. We hope someday, having solved the problems we face, to join a community of galactic civilizations.

參考文獻 / 延伸閱讀

  1. Kardashev, N.S. (1964). Transmission of information by extraterrestrial civilizations. articles.adsabs.harvard.edu.
  2. 加來道雄,《穿梭超時空》,台北:商周出版,2013
  3. 加來道雄,《平行宇宙》,台北:商周出版,2015
  4. 卡爾.薩根,《宇宙・宇宙》,台北:遠流出版事業股份有限公司,2010
  5. 史蒂芬.霍金,《胡桃裡的宇宙》,台北:大塊文化,2001
-----廣告,請繼續往下閱讀-----
所有討論 1
Castaly Fan (范欽淨)_96
6 篇文章 ・ 4 位粉絲
科學研究者,1999年生於台北,目前於美國佛羅里達大學(University of Florida)攻讀物理學博士,並於費米國家實驗室(Fermilab)從事高能物理相關研究。2022年於美國羅格斯大學(Rutgers University)取得物理學學士學位,當前則致力於學術研究、以及科學知識的傳播發展。 同時也是網路作家、《隨筆天下》網誌創辦人,筆名辰風,業餘發表網誌文章,從事詩詞、小說、以及音樂創作。