0

1
0

文字

分享

0
1
0

由杯麵淺談照護機器人——《羅伯特玩假的?破解機器人電影的科學真相》

PanSci_96
・2016/02/04 ・2646字 ・閱讀時間約 5 分鐘 ・SR值 509 ・六年級

如果家中有個機器人,能提供醫療照護、療癒心靈、還能像鋼鐵人般的勇猛,那該有多好!

獲得2015年奧斯卡金像獎最佳動畫獎、也是2014年最賣座的動畫電影《大英雄天團》(Big Hero 6)成功地塑造出劇中主人翁天才科技少年濱田廣最佳貼身玩伴──杯麵(Baymax)這樣的角色,在可愛、惹人憐愛的外型之外,「他」同時具有醫療功能,能適時地給你一個愛的抱抱,必要時也能像鋼鐵人般飛天遁地,毫無意外、順理成章地繼哆啦A 夢之後,成為讓人最想擁有的居家型機器人。當然,我們就得好好來審視一下動畫裡的杯麵,真的有可能成為我們現今家居生活中的一份子嗎?

杯麵,可行嗎?

在杯麵所擁有的十八般武藝中,其中的醫療照護可不是幻想,的確是目前學界研發居家照護機器人所關注的重點,當然電影中僅僅憑藉著簡單的掃描就能偵測出全身裡裡外外的內外傷,顯然是不切實際,如果真能如此,那醫院裡的醫師和種種貴重儀器就都可以全擺在一邊了。目前居家照護機器人的進展包括,能偵測出家中成員是否跌倒或失去反應、並送出求救訊號,提醒用藥時間、並給予適當藥品,也可以充當助行器,提供扶持、協助行走等。在台灣邁向老年化社會之際,這些功能都具有相當實質的功效,一方面可減輕醫療資源的負擔,另一方面也可讓需要照護的長輩保有獨立自主的能力與尊嚴。

來一個愛的抱抱,療癒系機器人

除了醫療照護功能外,杯麵長得白白胖胖,走起路來就像個會動的棉花糖,光看起來就很療癒,但機器人終究不具有感情,它真的有可能深入我們的心靈,讓我們得到貼心的撫慰嗎?懷疑歸懷疑,事實上寵物造型的機器人早已經悄悄地執行它們的療癒任務一段時間了!話說在2012年在台北舉辦的國際自動化工業大展中,就曾經出現過一隻號稱具有療癒功能的擁抱機器人「咖咖熊」,在展場中出盡鋒頭。

顧名思義,咖咖熊是以熊為造型,外型相當可愛、親切,廠商開發它是有感於現代人無處抒發的苦悶,想藉由擁抱的方式給大家加油打氣。筆者當然不會錯過實地體驗「療效」的機會,根據工作人員指示,面對它時,你先要呼喊「咖咖熊」來引起它的注意,然後大聲說出「我要抱抱」,咖咖熊就會搖晃過來與你擁抱,在此同時也會一併測量你的心跳與呼吸,算是連帶的健康檢查。

-----廣告,請繼續往下閱讀-----

在大庭廣眾下大喊「我要抱抱」,真是有點尷尬,以達到啟動系統的目的來看,其實喊甚麼應該都沒有關係,廠商的用意就是好玩嘛!話說此「熊抱」稱得上厚實,心中油然升起溫暖的心情,略為觀察其他人被擁抱過的反應,大部分人流露出類似靦腆、滿足之感,好像真的有被療癒到,這也讓人不禁思考起機器人的擁抱到底傳達出甚麼樣的訊息?它足以取代真人的感覺嗎?真的有可能誘發出人類的情感嗎?

世界第一的療癒系機器寵物—Paro

談到療癒系機器人,就一定不能錯過號稱世界第一名的機器寵物Paro,它是由位於日本筑波的產業技術綜合研究所柴田崇德博士(Takanori Shibata)於2001 年所推出,海豹造型、全身毛茸茸的Paro,具有細緻的觸感、慵懶的眼神,以及惹人愛憐的叫聲,一觸摸到它就會蜷曲自己的身體,並用它無辜的大眼睛看著你,真的是超級卡哇伊。可別以為它只是個可愛的大玩偶,Paro 已經獲得醫學認證,對於躁鬱、失智等症狀具有醫療效果,是個貨真價實的療癒系機器人,它也曾在日本311 海嘯過後,前往災區撫慰失去親人的倖存者。在日本,它已經被納入醫療系統,並已成功地推廣到全世界多個國家。由於Paro 確有療效, 台灣的工業技術研院也加以採購、並進行相關研究,期待能開發出更具療癒功能的寵物機器人。

02
海豹造型、全身毛茸茸的Paro,具有細緻的觸感、慵懶的眼神,真的是超級卡哇伊。圖片提供/清華大學通識教育中心林宗德教授。

Paro 剛問世時,曾經被送到筑波的醫院陪伴一位近乎失智的老太太,老太太已經有一段時間不跟外界溝通,包括醫生和護士,神奇的是她竟然開口和Paro 說話,震驚了所有人, 也讓Paro 開始得到外界的注意,許多人都想問,它究竟是怎麼辦到的?有個說法是因為Paro 是機器寵物,可以被我們所控制,所以容易產生安全感,也有人說,可愛的外型加上身體的觸感,以及類似有智慧的互動所產生的親切感使然。為甚麼人會對機器寵物產生眷念呢?這其中的緣由可真是個謎。就有待認知、心理等領域的專家進一步的探討與分析吧!

我們以工程眼光來仔細檢視一下Paro,它並沒有雙腳,並不會行走,在訪談人稱「Paro 之父」的柴田博士過程中,他說Paro 就是設計來讓人們「抱」,所以不賦予它行動能力, 但卻讓它擁有相當多的感應器,對聲音、光線、溫度與身體接觸都有感覺,能與人進行簡單的互動,會撒嬌、展現萌樣,也有所謂的情緒需求,會渴望你來摸摸、抱抱它,它也會回應你滿足的笑容。以技術層面來看,Paro 的組成並不是非常複雜,這樣就足以打動人心了嗎?

-----廣告,請繼續往下閱讀-----
01
柴田崇德博士說Paro就是設計來讓人們「抱」,讓它擁有相當多的感應器,對聲音、光線、溫度與身體接觸都有感覺。攝於日本筑波產業技術綜合研究所柴田崇德博士會議室。

仔細想想,Paro 身為機器寵物,不會有自我意識,可以想見它並不知道自己在做甚麼, 當然也無從主動投入情感,所以我們感受的溫暖是來自本身的移情作用,願意沉浸於想像中自在、安全的氛圍裡,而機器寵物所能提供的實體感與多重感知上的回饋,比起一般的玩具寵物,更能營造出擬真互動的情境。

Paro 的成功可不僅於此,它身上的馬達、感應器等,全部手工製造,極其精巧、細緻, 讓擁抱它的人感覺相當自然、舒適,但卻不見得全然地模仿真的海豹,正如柴田博士所說, 當初選擇海豹造型,而非貓或狗,乃是基於人類對於海豹的印象是相當可愛,但並不熟悉, 想想誰家隔壁會住一隻海豹啊?也因此不至於對Paro 的外型與叫聲與真實海豹到底像不像有所成見。而他們團隊也持續不斷地根據使用者的回饋,調整出一代又一代更貼近使用者需求的產品,也由於這份貼心,讓原本該是冷冰冰、不具情感的機器寵物,卻溫暖了人心。

ROBOT學堂考:

  1. 《大英雄天團》裡的杯麵所擁有的功能中,哪些恰好是目前學界的研發重點呢?
  2. 目前居家照護機器人已有那些進展?
  3. 日本所開發的Paro,真的具有醫療效果嗎?
  4. 人類為甚麼能從機器寵物身上感受到溫暖呢?

ROBOT-a1本文摘自《羅伯特玩假的?破解機器人電影的科學真相》,由國立交通大學出版社出版。

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度
PanSci_96
1270 篇文章 ・ 2668 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

1
0

文字

分享

0
1
0
解密機器人如何學會思考、觸摸與變形
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/09 ・6820字 ・閱讀時間約 14 分鐘

本文與 Perplexity 合作,泛科學企劃執行

「Hello. I am… a robot.」

在我們的記憶裡,機器人的聲音就該是冰冷、單調,不帶一絲情感 。它們的動作僵硬,肢體不協調,像一個沒有靈魂的傀儡,甚至啟發我們創造了機械舞來模仿那獨特的笨拙可愛。但是,現今的機器人發展不再只會跳舞或模仿人聲,而是已經能獨立完成一場膽囊切除手術。

就在2025年,美國一間實驗室發表了一項成果:一台名為「SRT-H」的機器人(階層式手術機器人Transformer),在沒有人類醫師介入的情況下,成功自主完成了一場完整的豬膽囊切除手術。SRT-H 正是靠著從錯誤中學習的能力,最終在八個不同的離體膽囊上,達成了 100% 的自主手術成功率。

-----廣告,請繼續往下閱讀-----

這項成就的意義重大,因為過去機器人手術的自動化,大多集中在像是縫合這樣的單一「任務」上。然而,這一場完整的手術,是一個包含數十個步驟、需要連貫策略與動態調整的複雜「程序」。這是機器人首次在包含 17 個步驟的完整膽囊切除術中,實現了「步驟層次的自主性」。

這就引出了一個讓我們既興奮又不安的核心問題:我們究竟錯過了什麼?機器人是如何在我們看不見的角落,悄悄完成了從「機械傀儡」到「外科醫生」的驚人演化?

這趟思想探險,將為你解密 SRT-H 以及其他五款同樣具備革命性突破的機器人。你將看到,它們正以前所未有的方式,發展出生物般的觸覺、理解複雜指令、學會團隊合作,甚至開始自我修復與演化,成為一種真正的「準生命體」 。

所以,你準備好迎接這個機器人的新紀元了嗎?

-----廣告,請繼續往下閱讀-----

只靠模仿還不夠?手術機器人還需要學會「犯錯」與「糾正」

那麼,SRT-H 這位機器人的外科大腦,究竟藏著什麼秘密?答案就在它創新的「階層式框架」設計裡 。

你可以想像,SRT-H 的腦中,住著一個分工明確的兩人團隊,就像是漫畫界的傳奇師徒—黑傑克與皮諾可 。

  • 第一位,是動口不動手的總指揮「黑傑克」: 它不下達具體的動作指令,而是在更高維度的「語言空間」中進行策略規劃 。它發出的命令,是像「抓住膽管」或「放置止血夾」這樣的高層次任務指令 。
  • 第二位,是靈巧的助手「皮諾可」: 它負責接收黑傑克的語言指令,並將這些抽象的命令,轉化為機器手臂毫釐不差的精準運動軌跡 。

但最厲害的還不是這個分工,而是它們的學習方式。SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。但這還只是開始,研究人員在訓練過程中,會刻意讓它犯錯,並向它示範如何從抓取失敗、角度不佳等糟糕的狀態中恢復過來 。這種獨特的訓練方法,被稱為「糾正性示範」 。

SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。 / 圖片來源:shutterstock

這項訓練,讓 SRT-H 學會了一項外科手術中最關鍵的技能:當它發現執行搞砸了,它能即時識別偏差,並發出如「重試抓取」或「向左調整」等「糾正性指令」 。這套內建的錯誤恢復機制至關重要。當研究人員拿掉這個糾正能力後,機器人在遇到困難時,要不是完全失敗,就是陷入無效的重複行為中 。

-----廣告,請繼續往下閱讀-----

正是靠著這種從錯誤中學習、自我修正的能力,SRT-H 最終在八次不同的手術中,達成了 100% 的自主手術成功率 。

SRT-H 證明了機器人開始學會「思考」與「糾錯」。但一個聰明的大腦,足以應付更混亂、更無法預測的真實世界嗎?例如在亞馬遜的倉庫裡,機器人不只需要思考,更需要實際「會做事」。

要能精準地與環境互動,光靠視覺或聽覺是不夠的。為了讓機器人能直接接觸並處理日常生活中各式各樣的物體,它就必須擁有生物般的「觸覺」能力。

解密 Vulcan 如何學會「觸摸」

讓我們把場景切換到亞馬遜的物流中心。過去,這裡的倉儲機器人(如 Kiva 系統)就像放大版的掃地機器人,核心行動邏輯是極力「避免」與周遭環境發生任何物理接觸,只負責搬運整個貨架,再由人類員工挑出包裹。

-----廣告,請繼續往下閱讀-----

但 2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan。在亞馬遜的物流中心裡,商品被存放在由彈性帶固定的織物儲物格中,而 Vulcan 的任務是必須主動接觸、甚至「撥開」彈性織網,再從堆放雜亂的儲物格中,精準取出單一包裹,且不能造成任何損壞。

2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan / 圖片引用:https://www.aboutamazon.com/news

Vulcan 的核心突破,就在於它在「拿取」這個動作上,學會了生物般的「觸覺」。它靈活的機械手臂末端工具(EOAT, End-Of-Arm Tool),不僅配備了攝影機,還搭載了能測量六個自由度的力與力矩感測器。六個自由度包含上下、左右、前後的推力,和三個維度的旋轉力矩。這就像你的手指,裡頭分布著非常多的受器,不只能感測壓力、還能感受物體橫向拉扯、運動等感觸。

EOAT 也擁有相同精確的「觸覺」,能夠在用力過大之前即時調整力道。這讓 Vulcan 能感知推動一個枕頭和一個硬紙盒所需的力量不同,從而動態調整行為,避免損壞貨物。

其實,這更接近我們人類與世界互動的真實方式。當你想拿起桌上的一枚硬幣時,你的大腦並不會先計算出精準的空間座標。實際上,你會先把手伸到大概的位置,讓指尖輕觸桌面,再沿著桌面滑動,直到「感覺」到硬幣的邊緣,最後才根據觸覺決定何時彎曲手指、要用多大的力量抓起這枚硬幣。Vulcan 正是在學習這種「視覺+觸覺」的混合策略,先用攝影機判斷大致的空間,再用觸覺回饋完成最後精細的操作。

-----廣告,請繼續往下閱讀-----

靠著這項能力,Vulcan 已經能處理亞馬遜倉庫中約 75% 的品項,並被優先部署來處理最高和最低層的貨架——這些位置是最容易導致人類員工職業傷害的位置。這也讓自動化的意義,從單純的「替代人力」,轉向了更具建設性的「增強人力」。

SRT-H 在手術室中展現了「專家級的腦」,Vulcan 在倉庫中演化出「專家級的手」。但你發現了嗎?它們都還是「專家」,一個只會開刀,一個只會揀貨。雖然這種「專家型」設計能有效規模化、解決痛點並降低成本,但機器人的終極目標,是像人類一樣成為「通才」,讓單一機器人,能在人類環境中執行多種不同任務。

如何教一台機器人「舉一反三」?

你問,機器人能成為像我們一樣的「通才」嗎?過去不行,但現在,這個目標可能很快就會實現了。這正是 NVIDIA 的 GR00T 和 Google DeepMind 的 RT-X 等專案的核心目標。

過去,我們教機器人只會一個指令、一個動作。但現在,科學家們換了一種全新的教學思路:停止教機器人完整的「任務」,而是開始教它們基礎的「技能基元」(skill primitives),這就像是動作的模組。

-----廣告,請繼續往下閱讀-----

例如,有負責走路的「移動」(Locomotion) 基元,和負責抓取的「操作」(Manipulation) 基元。AI 模型會透過強化學習 (Reinforcement Learning) 等方法,學習如何組合這些「技能基元」來達成新目標。

舉個例子,當 AI 接收到「從冰箱拿一罐汽水給我」這個新任務時,它會自動將其拆解為一系列已知技能的組合:首先「移動」到冰箱前、接著「操作」抓住把手、拉開門、掃描罐子、抓住罐子、取出罐子。AI T 正在學會如何將這些單一的技能「融合」在一起。有了這樣的基礎後,就可以開始來大量訓練。

當多重宇宙的機器人合體練功:通用 AI 的誕生

好,既然要學,那就要練習。但這些機器人要去哪裡獲得足夠的練習機會?總不能直接去你家廚房實習吧。答案是:它們在數位世界裡練習

NVIDIA 的 Isaac Sim 等平台,能創造出照片級真實感、物理上精確的模擬環境,讓 AI 可以在一天之內,進行相當於數千小時的練習,獨自刷副本升級。這種從「模擬到現實」(sim-to-real)的訓練管線,正是讓訓練這些複雜的通用模型變得可行的關鍵。

-----廣告,請繼續往下閱讀-----

DeepMind 的 RT-X 計畫還發現了一個驚人的現象:用來自多種「不同類型」機器人的數據,去訓練一個單一的 AI 模型,會讓這個模型在「所有」機器人上表現得更好。這被稱為「正向轉移」(positive transfer)。當 RT-1-X 模型用混合數據訓練後,它在任何單一機器人上的成功率,比只用該機器人自身數據訓練的模型平均提高了 50%。

這就像是多重宇宙的自己各自練功後,經驗值合併,讓本體瞬間變強了。這意味著 AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。

AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。/ 圖片來源:shutterstock

不再是工程師,而是「父母」: AI 的新學習模式

這也導向了一個科幻的未來:或許未來可能存在一個中央「機器人大腦」,它可以下載到各種不同的身體裡,並即時適應新硬體。

這種學習方式,也從根本上改變了我們與機器人的互動模式。我們不再是逐行編寫程式碼的工程師,而是更像透過「示範」與「糾正」來教導孩子的父母。

NVIDIA 的 GR00T 模型,正是透過一個「數據金字塔」來進行訓練的:

  • 金字塔底層: 是大量的人類影片。
  • 金字塔中層: 是海量的模擬數據(即我們提過的「數位世界」練習)。
  • 金字塔頂層: 才是最珍貴、真實的機器人操作數據。

這種模式,大大降低了「教導」機器人新技能的門檻,讓機器人技術變得更容易規模化與客製化。

當機器人不再是「一個」物體,而是「任何」物體?

我們一路看到了機器人如何學會思考、觸摸,甚至舉一反三。但這一切,都建立在一個前提上:它們的物理形態是固定的。

但,如果連這個前提都可以被打破呢?這代表機器人的定義不再是固定的形態,而是可變的功能:它能改變身體來適應任何挑戰,不再是一台單一的機器,而是一個能根據任務隨選變化的物理有機體。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院特別具有代表性,該學院的仿生機器人實驗室(Bioinspired Robotics Group, BIRG)2007 年就打造模組化自重構機器人 Roombots。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院(EPFL)特別具有代表性。該學院的仿生機器人實驗室(BIRG)在 2007 年就已打造出模組化自重構機器人 Roombots。而 2023 年,來自 EPFL 的另一個實驗室——可重組機器人工程實驗室(RRL),更進一步推出了 Mori3,這是一套把摺紙藝術和電腦圖學巧妙融合的模組化機器人系統。

2023 年來自 EPFL 的另一個實驗室—可重組機器人工程實驗室(RRL)推出了 Mori3 © 2023 Christoph Belke, EPFL RRL

Mori3 的核心,是一個個小小的三角形模組。別看它簡單,每個模組都是一個獨立的機器人,有自己的電源、馬達、感測器和處理器,能獨立行動,也能和其他模組合作。最厲害的是,它的三條邊可以自由伸縮,讓這個小模組本身就具備「變形」能力。

當許多 Mori3 模組連接在一起時,就能像一群活的拼圖一樣,從平面展開,組合成各種三維結構。研究團隊將這種設計稱為「物理多邊形網格化」。在電腦圖學裡,我們熟悉的 3D 模型,其實就是由許多多邊形(通常是三角形)拼湊成的網格。Mori3 的創新之處,就是把這種純粹的數位抽象,真正搬到了現實世界,讓模組們化身成能活動的「實體網格」。

這代表什麼?團隊已經展示了三種能力:

  • 移動:他們用十個模組能組合成一個四足結構,它能從平坦的二維狀態站立起來,並開始行走。這不只是結構變形,而是真正的協調運動。
  • 操縱: 五個模組組合成一條機械臂,撿起物體,甚至透過末端模組的伸縮來擴大工作範圍。
  • 互動: 模組們能形成一個可隨時變形的三維曲面,即時追蹤使用者的手勢,把手的動作轉換成實體表面的起伏,等於做出了一個會「活」的觸控介面。

這些展示,不只是實驗室裡的炫技,而是真實證明了「物理多邊形網格化」的潛力:它不僅能構建靜態的結構,還能創造具備複雜動作的動態系統。而且,同一批模組就能在不同情境下切換角色。

想像一個地震後的救援場景:救援隊帶來的不是一台笨重的挖土機,而是一群這樣的模組。它們首先組合成一條長長的「蛇」形機器人,鑽入瓦礫縫隙;一旦進入開闊地後,再重組成一隻多足的「蜘蛛」,以便在不平的地面上穩定行走;發現受困者時,一部分模組分離出來形成「支架」撐住搖搖欲墜的橫樑,另一部分則組合成「夾爪」遞送飲水。這就是以任務為導向的自我演化。

這項技術的終極願景,正是科幻中的概念:可程式化物質(Programmable Matter),或稱「黏土電子學」(Claytronics)。想像一桶「東西」,你可以命令它變成任何你需要的工具:一支扳手、一張椅子,或是一座臨時的橋樑。

未來,我們只需設計一個通用的、可重構的「系統」,它就能即時創造出任務所需的特定機器人。這將複雜性從實體硬體轉移到了規劃重構的軟體上,是一個從硬體定義的世界,走向軟體定義的物理世界的轉變。

更重要的是,因為模組可以隨意分開與聚集,損壞時也只要替換掉部分零件就好。足以展現出未來機器人的適應性、自我修復與集體行為。當一群模組協作時,它就像一個超個體,如同蟻群築橋。至此,「機器」與「有機體」的定義,也將開始動搖。

從「實體探索」到「數位代理」

我們一路見證了機器人如何從單一的傀儡,演化為學會思考的外科醫生 (SRT-H)、學會觸摸的倉儲專家 (Vulcan)、學會舉一反三的通才 (GR00T),甚至是能自我重構成任何形態的「可程式化物質」(Mori3)。

但隨著機器人技術的飛速發展,一個全新的挑戰也隨之而來:在一個 AI 也能生成影像的時代,我們如何分辨「真實的突破」與「虛假的奇觀」?

舉一個近期的案例:2025 年 2 月,一則影片在網路上流傳,顯示一台人形機器人與兩名人類選手進行羽毛球比賽,並且輕鬆擊敗了人類。我的第一反應是懷疑:這太誇張了,一定是 AI 合成的影片吧?但,該怎麼驗證呢?答案是:用魔法打敗魔法。

在眾多 AI 工具中,Perplexity 特別擅長資料驗證。例如這則羽球影片的內容貼給 Perplexity,它馬上就告訴我:該影片已被查證為數位合成或剪輯。但它並未就此打住,而是進一步提供了「真正」在羽球場上有所突破的機器人—來自瑞士 ETH Zurich 團隊的 ANYmal-D

接著,選擇「研究模式」,就能深入了解 ANYmal-D 的詳細原理。原來,真正的羽球機器人根本不是「人形」,而是一台具備三自由度關節的「四足」機器人。

如果你想更深入了解,Perplexity 的「實驗室」功能,還能直接生成一份包含圖表、照片與引用來源的完整圖文報告。它不只介紹了 ANYmal-D 在羽球上的應用,更詳細介紹了瑞士聯邦理工學院發展四足機器人的完整歷史:為何選擇四足?如何精進硬體與感測器結構?以及除了運動領域外,四足機器人如何在關鍵的工業領域中真正創造價值。

AI 代理人:數位世界的新物種

從開刀、揀貨、打球,到虛擬練功,這些都是機器人正在學習「幫我們做」的事。但接下來,機器人將獲得更強的「探索」能力,幫我們做那些我們自己做不到的事。

這就像是,傳統網路瀏覽器與 Perplexity 的 Comet 瀏覽器之間的差別。Comet 瀏覽器擁有自主探索跟決策能力,它就像是數位世界裡的機器人,能成為我們的「代理人」(Agent)

它的核心功能,就是拆解過去需要我們手動完成的多步驟工作流,提供「專業代工」,並直接交付成果。

例如,你可以直接對它說:「閱讀這封會議郵件,檢查我的行事曆跟代辦事項,然後草擬一封回信。」或是直接下達一個複雜的指令:「幫我訂 Blue Origin 的太空旅遊座位,記得要來回票。」

接著,你只要兩手一攤,Perplexity 就會接管你的瀏覽器,分析需求、執行步驟、最後給你結果。你再也不用自己一步步手動搜尋,或是在不同網站上重複操作。

AI 代理人正在幫我們探索險惡的數位網路,而實體機器人,則在幫我們前往真實的物理絕境。

立即點擊專屬連結 https://perplexity.sng.link/A6awk/k74… 試用 Perplexity吧! 現在申辦台灣大哥大月付 599(以上) 方案,還可以獲得 1 年免費 Perplexity Pro plan 喔!(價值 新台幣6,750)

◆Perplexity 使用實驗室功能對 ANYmal-D 與團隊的全面分析 https://drive.google.com/file/d/1NM97…

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

0

17
4

文字

分享

0
17
4
為機器人換上「物理大腦」:一場終結AI數位囚禁的革命
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/03 ・5732字 ・閱讀時間約 11 分鐘

-----廣告,請繼續往下閱讀-----

本文與 研華科技 合作,泛科學企劃執行

我們都看過那種影片,對吧?網路上從不缺乏讓人驚嘆的機器人表演:數十台人形機器人像軍隊一樣整齊劃一地耍雜技 ,或是波士頓動力的機器狗,用一種幾乎違反物理定律的姿態後空翻、玩跑酷 。每一次,社群媒體總會掀起一陣「未來已來」、「人類要被取代了」的驚呼 。

但當你關掉螢幕,看看四周,一個巨大的落差感就來了:說好的機器人呢?為什麼大街上沒有他們的身影,為什麼我家連一件衣服都還沒人幫我摺?

這份存在於數位螢幕與物理現實之間的巨大鴻溝,源於一個根本性的矛盾:當代AI在數位世界裡聰明絕頂,卻在物理世界中笨拙不堪。它可以寫詩、可以畫畫,但它沒辦法為你端一杯水。

-----廣告,請繼續往下閱讀-----

這個矛盾,在我們常見的兩種機器人展示中體現得淋漓盡致。第一種,是動作精準、甚至會跳舞的類型,這本質上是一場由工程師預先寫好劇本的「戲」,機器人對它所處的世界一無所知 。第二種,則是嘗試執行日常任務(如開冰箱、拿蘋果)的類型,但其動作緩慢不穩,彷彿正在復健的病人 。

這兩種極端的對比,恰恰點出了機器人技術的真正瓶頸:它們的「大腦」還不夠強大,無法即時處理與學習真實世界的突發狀況 。

這也引出了本文試圖探索的核心問題:新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦,真的能終結機器人的「復健時代」,開啟一個它們能真正理解、並與我們共同生活的全新紀元嗎?

新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦 / 圖片來源:研華科技

為何我們看到的機器人,總像在演戲或復健?

那我們怎麼理解這個看似矛盾的現象?為什麼有些機器人靈活得像舞者,有些卻笨拙得像病人?答案,就藏在它們的「大腦」運作方式裡。

-----廣告,請繼續往下閱讀-----

那些動作極其精準、甚至會後空翻的機器人,秀的其實是卓越的硬體性能——關節、馬達、減速器的完美配合。但它的本質,是一場由工程師預先寫好劇本的舞台劇 。每一個角度、每一分力道,都是事先算好的,機器人本身並不知道自己為何要這麼做,它只是在「執行」指令,而不是在「理解」環境。

而另一種,那個開冰箱慢吞吞的機器人,雖然看起來笨,卻是在做一件革命性的事:它正在試圖由 AI 驅動,真正開始「理解」這個世界 。它在學習什麼是冰箱、什麼是蘋果、以及如何控制自己的力量才能順利拿起它。這個過程之所以緩慢,正是因為過去驅動它的「大腦」,也就是 AI 晶片的算力還不夠強,無法即時處理與學習現實世界中無窮的變數 。

這就像教一個小孩走路,你可以抱著他,幫他擺動雙腿,看起來走得又快又穩,但那不是他自己在走。真正的學習,是他自己搖搖晃晃、不斷跌倒、然後慢慢找到平衡的過程。過去的機器人,大多是前者;而我們真正期待的,是後者。

所以,問題的核心浮現了:我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好?

-----廣告,請繼續往下閱讀-----
我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好? / 圖片來源:shutterstock

機器人的大腦,為什麼不能放在雲端?

聽起來好像很合理,對吧?把所有複雜的運算都交給雲端最強大的伺服器,機器人本身只要負責接收指令就好了。但……真的嗎?

想像一下,如果你的大腦在雲端,你看到一個球朝你飛過來,視覺訊號要先上傳到雲端,雲端分析完,再把「快閃開」的指令傳回你的身體。這中間只要有零點幾秒的網路延遲,你大概就已經鼻青臉腫了。

現實世界的互動,需要的是「即時反應」。任何網路延遲,在物理世界中都可能造成無法彌補的失誤 。因此,運算必須在機器人本體上完成,這就是「邊緣 AI」(Edge AI)的核心概念 。而 NVIDIA  Jetson 平台,正是為了解決這種在裝置端進行高運算、又要兼顧低功耗的需求,而誕生的關鍵解決方案 。

NVIDIA Jetson 就像一個緊湊、節能卻效能強大的微型電腦,專為在各種裝置上運行 AI 任務設計 。回顧它的演進,早期的 Jetson 系統主要用於視覺辨識搭配AI推論,像是車牌辨識、工廠瑕疵檢測,或者在相機裡分辨貓狗,扮演著「眼睛」的角色,看得懂眼前的事物 。但隨著算力提升,NVIDIA Jetson 的角色也逐漸從單純的「眼睛」,演化為能夠控制手腳的「大腦」,開始驅動更複雜的自主機器,無論是地上跑的、天上飛的,都將NVIDIA Jetson 視為核心運算中樞 。

-----廣告,請繼續往下閱讀-----

但再強大的晶片,如果沒有能適應現場環境的「容器」,也無法真正落地。這正是研華(Advantech)的角色,我們將 NVIDIA Jetson 平台整合進各式工業級主機與邊緣運算設備,確保它能在高熱、灰塵、潮濕或震動的現場穩定運行,滿足從工廠到農場到礦場、從公車到貨車到貨輪等各種使用環境。換句話說,NVIDIA 提供「大腦」,而研華則是讓這顆大腦能在真實世界中呼吸的「生命支持系統」。

這個平台聽起來很工業、很遙遠,但它其實早就以一種你意想不到的方式,進入了我們的生活。

從Switch到雞蛋分揀員,NVIDIA Jetson如何悄悄改變世界?

如果我告訴你,第一代的任天堂Switch遊戲機與Jetson有相同血緣,你會不會很驚訝?它的核心處理器X1晶片,與Jetson TX1模組共享相同架構。這款遊戲機對高效能運算和低功耗的嚴苛要求,正好與 Jetson 的設計理念不謀而合 。

而在更專業的領域,研華透過 NVIDIA Jetson 更是解決了許多真實世界的難題 。例如

-----廣告,請繼續往下閱讀-----
  • 在北美,有客戶利用 AI 進行雞蛋品質檢測,研華的工業電腦搭載NVIDIA Jetson 模組與相機介面,能精準辨識並挑出髒污、雙黃蛋到血蛋 
  • 在日本,為避免鏟雪車在移動時發生意外,導入了環繞視覺系統,當 AI 偵測到周圍有人時便會立刻停止 ;
  • 在水資源珍貴的以色列,研華的邊緣運算平台搭載NVIDIA Jetson模組置入無人機內,24 小時在果園巡航,一旦發現成熟的果實就直接凌空採摘,實現了「無落果」的終極目標 。

這些應用,代表著 NVIDIA Jetson Orin™ 世代的成功,它讓「自動化」設備變得更聰明 。然而,隨著大型語言模型(LLM)的浪潮來襲,人們的期待也從「自動化」轉向了「自主化」 。我們希望機器人不僅能執行命令,更能理解、推理。

Orin世代的算力在執行人形機器人AI推論時的效能約為每秒5到10次的推論頻率,若要機器人更快速完成動作,需要更強大的算力。業界迫切需要一個更強大的大腦。這也引出了一個革命性的問題:AI到底該如何學會「動手」,而不只是「動口」?

革命性的一步:AI如何學會「動手」而不只是「動口」?

面對 Orin 世代的瓶頸,NVIDIA 給出的答案,不是溫和升級,而是一次徹底的世代跨越— NVIDIA Jetson Thor 。這款基於最新 Blackwell 架構的新模組,峰值性能是前代的 7.5 倍,記憶體也翻倍 。如此巨大的效能提升,目標只有一個:將過去只能在雲端資料中心運行的、以 Transformer 為基礎的大型 AI 模型,成功部署到終端的機器上 。

NVIDIA Jetson Thor 的誕生,將驅動機器人控制典範的根本轉變。這要從 AI 模型的演進說起:

-----廣告,請繼續往下閱讀-----
  1. 第一階段是 LLM(Large Language Model,大型語言模型):
    我們最熟悉的 ChatGPT 就屬此類,它接收文字、輸出文字,實現了流暢的人機對話 。
  2. 第二階段是 VLM(Vision-Language Model,視覺語言模型):
    AI 學會了看,可以上傳圖片,它能用文字描述所見之物,但輸出結果仍然是給人類看的自然語言 。
  3. 第三階段則是 VLA(Vision-Language-Action Model,視覺語言行動模型):
    這是革命性的一步。VLA 模型的輸出不再是文字,而是「行動指令(Action Token)」 。它能將視覺與語言的理解,直接轉化為控制機器人關節力矩、速度等物理行為的具體參數 。

這就是關鍵! 過去以NVIDIA Jetson Orin™作為大腦的機器人,僅能以有限的速度運行VLA模型。而由 VLA 模型驅動,讓 AI 能夠感知、理解並直接與物理世界互動的全新形態,正是「物理 AI」(Physical AI)的開端 。NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 。

NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 / 圖片來源:研華科技

其中,物理 AI 強調的 vision to action,就需要研華設計對應的硬體來實現;譬如視覺可能來自於一般相機、深度相機、紅外線相機甚至光達,你的系統就要有對應的介面來整合視覺;你也會需要控制介面去控制馬達伸長手臂或控制夾具拿取物品;你也要有 WIFI、4G 或 5G 來傳輸資料或和別的 AI 溝通,這些都需要具體化到一個系統上,這個系統的集大成就是機器人。

好,我們有了史上最強的大腦。但一個再聰明的大腦,也需要一副強韌的身體。而這副身體,為什麼非得是「人形」?這不是一種很沒效率的執念嗎?

為什麼機器人非得是「人形」?這不是一種低效的執念嗎?

這是我一直在思考的問題。為什麼業界的主流目標,是充滿挑戰的「人形」機器人?為何不設計成效率更高的輪式,或是功能更多元的章魚型態?

-----廣告,請繼續往下閱讀-----

答案,簡單到令人無法反駁:因為我們所處的世界,是徹底為人形生物所打造的。

從樓梯的階高、門把的設計,到桌椅的高度,無一不是為了適應人類的雙足、雙手與身高而存在 。對 AI 而言,採用人形的軀體,意味著它能用與我們最相似的視角與方式去感知和學習這個世界,進而最快地理解並融入人類環境 。這背後的邏輯是,與其讓 AI 去適應千奇百怪的非人形設計,不如讓它直接採用這個已經被數千年人類文明「驗證」過的最優解 。

這也區分了「通用型 AI 人形機器人」與「專用型 AI 工業自動化設備」的本質不同 。後者像高度特化的工具,產線上的機械手臂能高效重複鎖螺絲,但它無法處理安裝柔軟水管這種預設外的任務 。而通用型人形機器人的目標,是成為一個「多面手」,它能在廣泛學習後,理解物理世界的運作規律 。理論上,今天它在產線上組裝伺服器,明天就能在廚房裡學會煮菜 。

人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態 / 圖片來源:shutterstock

但要讓一個「多面手」真正活起來,光有骨架還不夠。它必須同時擁有強大的大腦平台與遍布全身的感知神經,才能理解並回應外在環境。人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態。但這些訊號若沒有通過一個穩定的「大腦平台」,就無法匯聚成有意義的行動。

這正是研華的角色:我們不僅把 NVIDIA Jetson Thor 這顆核心晶片包載在工業級電腦中,讓它成為能真正思考與反應的「完整大腦」,同時也提供神經系統的骨幹,將感測器、I/O 介面與通訊模組可靠地連結起來,把訊號傳導進大腦。你或許看不見研華的存在,但它實際上遍布在機器人全身,像隱藏在皮膚之下的神經網絡,讓整個身體真正活過來。

但有了大腦、有了身體,接下來的挑戰是「教育」。你要怎麼教一個物理 AI?總不能讓它在現實世界裡一直摔跤,把一台幾百萬的機器人摔壞吧?

打造一個「精神時光屋」,AI的學習速度能有多快?

這個問題非常關鍵。大型語言模型可以閱讀網際網路上浩瀚的文本資料,但物理世界中用於訓練的互動資料卻極其稀缺,而且在現實中反覆試錯的成本與風險實在太高 。

答案,就在虛擬世界之中。

NVIDIA Isaac Sim™等模擬平台,為這個問題提供了完美的解決方案 。它能創造出一個物理規則高度擬真的數位孿生(Digital Twin)世界,讓 AI 在其中進行訓練 。

這就像是為機器人打造了一個「精神時光屋」 。它可以在一天之內,經歷相當於現實世界千百日的學習與演練,從而在絕對安全的環境中,窮盡各種可能性,深刻領悟物理世界的定律 。透過這種「模擬-訓練-推論」的 3 Computers 閉環,Physical AI (物理AI) 的學習曲線得以指數級加速 。

我原本以為模擬只是為了節省成本,但後來發現,它的意義遠不止於此。它是在為 AI 建立一種關於物理世界的「直覺」。這種直覺,是在現實世界中難以透過有限次的試錯來建立的。

所以你看,這趟從 Switch 到人形機器人的旅程,一幅清晰的未來藍圖已經浮現了。實現物理 AI 的三大支柱已然齊備:一個劃時代的「AI 大腦」(NVIDIA Jetson Thor)、讓核心延展為「完整大腦與神經系統」的工業級骨幹(由研華 Advantech 提供),以及一個不可或缺的「教育環境」(NVIDIA Isaac Sim 模擬平台) 。

結語

我們拆解了那些酷炫機器人影片背後的真相,看見了從「自動化」走向「自主化」的巨大技術鴻溝,也見證了「物理 AI」時代的三大支柱——大腦、身軀、與教育——如何逐一到位 。

專家預測,未來 3 到 5 年內,人形機器人領域將迎來一場顯著的革命 。過去我們只能在科幻電影中想像的場景,如今正以前所未有的速度成為現實 。

這不再只是一個關於效率和生產力的問題。當一台機器,能夠觀察我們的世界,理解我們的語言,並開始以物理實體的方式與我們互動,這將從根本上改變我們與科技的關係。

所以,最後我想留給你的思想實驗是:當一個「物理 AI」真的走進你的生活,它不只是個工具,而是一個能學習、能適應、能與你共同存在於同一個空間的「非人智慧體」,你最先感受到的,會是興奮、是便利,還是……一絲不安?

這個問題,不再是「我們能否做到」,而是「當它發生時,我們準備好了嗎?」

研華已經整裝待發,現在,我們與您一起推動下一代物理 AI 與智慧設備的誕生。
https://bit.ly/4n78dR4

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

0

7
3

文字

分享

0
7
3
和外星人的第五類接觸!《三體》中的微中子通訊是真的?
PanSci_96
・2024/04/08 ・6799字 ・閱讀時間約 14 分鐘

不要回答!不要回答!不要回答!

Netflix 版「三體」終於上線了,你覺得與外星人接觸是安全的,還是冒險的?

其實啊,人類早就多次嘗試與外星文明接觸,三體中的「那個」技術,甚至也已經驗證成功了?到底誰能先與外星人取得聯繫?是中國還是美國?

接下來的討論可能會暴雷原版小說的設定,但應該不會暴雷 Netflix 版的劇情。

-----廣告,請繼續往下閱讀-----

如果你也有一點想跟外星人接觸,那就來看看人類到底已經跟外星人搭訕到什麼程度了吧!

我們與外星文明接觸過了嗎?

對於是否要與外星文明接觸,每個人都有不同想法。三體小說作者劉慈欣在小說中提出一種觀點,那就是人類太弱小,最好避免與外星文明接觸,以免招致不必要的風險。

但是回到現實世界,如果我們真的身處在三體的世界的話,那人類可真的是不停作死啊。早在 1974 年,科學家就利用阿雷西博天文台,向武仙座的 M13 球狀星團發射了一條著名的訊息,也就是「阿雷西博訊息」。這個目標距離地球不算遠,星星又多,被認為是潛在的外星文明所在。阿雷西博訊息中,則包含人類的 DNA 結構、太陽與九大行星、人類的姿態等資訊。每次想到總覺得是新開的炸雞排在發傳單攬客。

航海家金唱片。圖/wikimedia

除了無實體的電波訊息,人類還向太空中發送了實體的「信件」。1977 年,航海家探測器載著「航海家金唱片」進入太空。唱片中收錄了包含台語在內,55 種語言的問候語、大自然與鳥獸的聲音、115 張圖像、還用 14 顆銀河系內已知的脈衝星來標示出太陽系的位置。是一封向宇宙表達人類文明與友好意圖的信件。恩,如果接收到這個訊息的外星人不是很友善的話,那麼……。

-----廣告,請繼續往下閱讀-----

好吧,就算現在說應該要謹慎考慮接觸外星文明的風險,或許已經來不及了。對方是善還是惡,怎麼定義善或惡,會不會突然對我們發動攻擊,我們也只能聽天由命了。

反過來說,過了這麼久,我們收到外星文明的來信了嗎?

要確定有沒有外星文明,接收訊號當然跟發送訊號同等重要甚至更重要。1960 年,天文學家法蘭克.德雷克,就曾通過奧茲瑪計畫,使用直徑 26 公尺的電波望遠鏡,觀察可能有外星文明的天苑四和天倉五兩個恆星系統,標誌著「尋找外星智慧計畫」(the Search for Extraterrestrial Intelligence, SETI)的誕生。可惜,累積了超過 150 小時的訊息,都沒有搜尋到可辨識的訊號。

比較近的則是 1995 年的鳳凰計畫,要研究來自太陽附近一千個恆星所發出的一千兩百到三千百萬赫的無線電波。由於有經費支持,SETI 每年可以花五百萬美元,掃描一千多個恆星,但是目前還沒有任何發現。

中間有一個小插曲是,1967 年 10 月,英國劍橋大學的研究生喬絲琳.貝爾發現無線電望遠鏡收到了一個非常規律的脈衝訊號,訊號周期約為 1.34 秒,每次脈衝持續時間 0.04 秒。因為有可能是來自外星文明的訊號,因此訊號被開玩笑地取為 Little Green Man 1(LGM-1 號)。但後來他們又發現了多個類似的脈衝信號,最後證實這些脈衝是來自高速自轉的中子星,而非某個文明正在傳遞訊息。

-----廣告,請繼續往下閱讀-----
貴州天眼望遠鏡。圖/FAST

在中國也有探索外星生命的計畫,大家最關注的貴州天眼望遠鏡,直徑達五百公尺,是地球上最大的單一口徑電波望遠鏡。天眼望遠鏡在探索外星生命這件事,並不只是傳聞而已。2016 年 9 月天眼正式啟用後,也宣布加入 SETI 計畫。現在貴州天眼的六大任務之一,就包含探測星際通訊,希望能捕捉到來自其他星際文明的訊號。

而背負著地球最大單一口徑望遠鏡的名號,自然也引起不少關注。從 2016 年啟用到現在,就陸續出現不少檢測到可疑訊號的新聞。然而,這些訊號還需要經過檢驗,確定不是其他來自地面或地球附近的干擾源,或是我們過去難以發現的輻射源。可以確定的是,目前官方還未正式聲明找到外星文明訊號。

會不會是我們的通訊方法都選擇錯誤了?

即使電磁波用光速傳遞訊息,太陽系的直徑約 2 光年、銀河系直徑約 10 萬光年。或許我們的訊息還需要花很多時間才回得來,更別提那些被拋入太空的實體信件。航海家 1 號曾是世界上移動速度最快的人造物,現在仍以大約時速 6 萬公里的速度遠離地球,大約只有光速的一萬八千分之一倍。就算朝著最近的恆星——比鄰星飛去,最少也需要大約 7 萬 6 千年的時間才會到。

如果用電磁波傳遞訊息,又容易因為穿越星塵、行星、恆星等天體而被阻擋或吸收。不論是人類還是外星文明,都必須找到一個既快速,又不容易衰退的訊號,最好就是能以光速穿越任何障礙物的方式。

-----廣告,請繼續往下閱讀-----

在三體小說中,就給出了一個關鍵方法:微中子通訊。

微中子通訊是什麼?

微中子(Neutrino),中國通常翻譯為中微子,是一種基本粒子。也就是說它是物質的最基本組成單位,無法被進一步分割。這種粒子引起了廣泛關注,因為它與其他物質的交互作用極弱,並且以極高的速度運動。微中子能夠輕易穿過大部分物質,通過時幾乎不受阻礙,因此難以檢測。

在宇宙中,微中子的數量僅次於光子,是宇宙中第二多的粒子。有多多呢?地球上面向太陽的方向,每平方公分的面積,大約是你的手指指尖,每秒鐘都會被大約 650 億個來自太陽的微中子穿過,就是這麼多。但是因為微中子與物質的反應真的是太弱了,例如在純水中,它們平均需要向前走 250 光年,才會與水產生一次交互作用,以至於我們幾乎不會發現它們的存在。

藉由微中子撞擊氣泡室中氫原子裡的質子,進行微中子觀測,照片右方三條軌跡的匯集之處便是帶電粒子撞擊發生處。圖/wikimedia

但是對物理學家來說,更特別的是微中子展示出三種不同的「味」(flavor),也就是三種樣貌,電子微中子,渺子微中子和濤微中子,分別對應到不同的物理特性。 在粒子物理學裏,有個「標準模型」來描述強力、弱力及電磁力這三種基本力,以及所有基本粒子。在這個標準模型中,微中子是不具備質量的。 然而,當科學家發現微中子竟然有三種味,而且能透過微中子振盪,在三種「味」之間相互轉換,證明了微中子必須具有質量,推翻了標準模型中預測微中子是無質量的假設,表示標準模型還不完備。

-----廣告,請繼續往下閱讀-----

微中子在物理界是個非常有研究價值的對象,值得我們花上一整集來好好介紹,這邊就先點到為止。如果你對微中子或其他基本粒子很感興趣,歡迎在留言催促我們。

我們現在只要知道,微中子不僅推翻了標準模型。宇宙中含量第二多的粒子竟然有質量這件事情,更可能更新我們對宇宙的理解,以及增加對暗物質的了解。

但回到我們的問題,如果微中子幾乎不與其他粒子交互作用,我們要怎麼接收來自外星文明的微中子通訊呢?

要如何接收微中子?

Netflix 版《三體》預告片中,這個一閃而過,充滿金色圓球,帶有點宗教與科幻風格的大水缸,就是其中的關鍵。

-----廣告,請繼續往下閱讀-----

這個小說中沒有特別提到,但相信觀眾中也有人一眼就看出來。這就是位在日本岐阜縣飛驒市,地表 1,000 公尺之下,由廢棄礦坑改建而成的大型微中子探測器「神岡探測器」。

由廢棄砷礦坑改建而成,深達千米的神岡探測器。圖/Super-Kamiokande Construction

探測器的主要結構是一個高 41.4 米、直徑 39.3 米的巨大圓柱形的容器。容器的內壁上安裝有 11200 個光電倍增管,用於捕捉微小的訊號。水缸中則需灌滿 5 萬噸的超純水。捕捉微中子的方式是等待微中子穿過整座探測器時,微中子和水中的氫原子和氧原子發生交互作用,產生淡藍色的光芒。這與我們在核電系列中提到,核燃料池中會發出淡藍色光芒的原理一樣,是當粒子在水中超越介質光速時,產生類似音爆的「契忍可夫輻射」。

填水的神岡探測器。圖/Super-Kamiokande

也就是說,科學家準備一個超大的水缸來與微中子產生反應,並且用超過一萬個光電倍增管,來捕捉微小的契忍可夫輻射訊號。

但這樣的設計十分值得,前面提到的微中子可以在三種「味」中互相轉換,就是在這個水槽中被證實的。

-----廣告,請繼續往下閱讀-----

這座「神岡探測器」在建成後 40 幾年來,讓日本孕育出了 5 位的諾貝爾物理獎得主。

三體影集選在這邊拍攝,真的要說,選得好啊。

話說回來,有了微中子的捕捉方法之後,現實中還真的有人研究起了微中子通訊!

微中子通訊是怎麼做到的?

來自羅徹斯特大學與北卡羅來納州立大學的團隊,在 2012 年發表了一篇文章,說明它們已成功使用微中子,以接近光速的速度將訊息穿過 1 公里的距離,其中有 240 公尺是堅硬的岩石。訊息的內容是「Neutrino」,也就是微中子。

這套設備準備起來也不簡單,用來發射微中子的,是一部強大的粒子加速器 NuMI。質子在加速繞行一個周長 3.3 公里的軌道之後,與一個碳標靶相撞,發出高強度的微中子射束。

用磁場將微中子聚集成束的 NuMI。圖/Fermilab

用來接收微中子的則是邊長約 1.7 公尺,長 5 公尺的六角柱探測器 MINERvA,一樣身處於地底 100 公尺的洞穴中。

當然,這兩套設備的重點都是拿來研究微中子特性,而不是為了通訊設計的。團隊只是趁著主要任務之間的空檔,花了兩小時驗證通訊的可能性。

但微中子那麼難測量,要怎麼拿來通訊呢?團隊換了一個思維,目標只要能傳出0跟1就好,而這裡的0就是沒有發射微中子,而1則是發出微中子,而且是一大堆微中子。多到即使每百億個微中子只有一個會被 MINERvA 偵測到,只要靠著數量暴力,探測器就一定能接收到微中子。最後的實驗結果,平均一秒可以傳 0.1 個位元的訊息,錯誤率 1%。

MINERvA 實驗中的中微子偵測器示意圖。圖/wikimedia

看起來效率並不實用,卻是一個好的開始。

因為微中子「幾乎能穿透所有物體」的特性,即便我們還沒有其他外星文明可以通訊,或許還是有其他作用。例如潛水艇的通訊、或是與礦坑深處的通訊。進一步說,他幾乎可以在地球上的任一兩點建立點對點的直線通訊,完全不用擔心中間的阻礙。而對於現在最夯的太空競賽來說,月球背面的通訊問題,微中子也可以完美解決。

那麼,在微中子的研究上,各國的進度如何了呢?

除了前面提到的超級神岡,世界上還有幾個有趣的微中子探測器,例如位於加拿大的薩德伯里微中子觀測站(SNO),它有特殊的球體設計並且改為填充重水,專門用來觀測來自太陽的微中子。

薩德伯里中微子探測器。圖/wikimedia

而位於南極的冰立方微中子觀測站,則是將探測器直接埋在南極 1450 到 2450 公尺的冰層底下,將上方的冰層直接作為捕捉微中子的水。非常聰明的設計,這也讓冰立方成為地球上最大的微中子探測器。

除了已經在使用的這幾個探測器之外,美、中、日也即將打造更先進、更強大的探測器。

預計在美國打造的國際計畫——地下深處微中子實驗(Deep Underground Neutrino Experiment),預計成為世界上最大的低溫粒子偵測器。接收器位於南達科他州的地底一公里深處,用作研究的微中子訊號源則來自 1300 公里外的費米實驗室,百萬瓦等級的質子加速器,將產生有史以來最強的微中子束。這台地下深處微中子實驗(Deep Underground Neutrino Experiment)的縮寫非常有趣,就是 DUNE,沙丘。

中國呢,則預計在廣東的江門市,用 2 萬支 51 公分光電倍增管和 2 萬 5000 支 7.6 公分光電倍增管,在地底 700 公尺深處,打造巨大球形的微中子探測器-江門中微子實驗室,內部可以填充兩萬噸的純水。最新的消息是預計 2024 年就能啟用。

最後,經典的超級神岡探測器也不會就此原地踏步,日本預計打造更大的超巨型神岡探測器。容積將提升 5.2 倍、光電管從 11200 個變成 4 萬個,進一步研究微中子與反微中子之間的震盪。

超巨型神岡探測器設計圖。圖/Hyper-Kamiokande

結論

這些微中子探測器的研究目標必然是微中子本身的特性。但既然微中子通訊是有可能的,在任務之餘研究一下這個可能性,也不是說不行吧。

雖然我們現在還沒連繫上我們的好鄰居,但很難說明天就有哪個外星文明終於接收到我們對外宣傳的訊息,發出微中子通訊問候,甚至按圖索驥跑來地球。

至於那時我們應該怎麼辦呢?我們的網站上有幾篇文章,包括介紹黑暗森林法則,以及從《異星入境》看我們要如何與語言不通的外星文明溝通。有興趣的朋友,可以點擊資訊欄的連結觀看。在外星人降臨之前,也不妨參考我們的科學小物哦。

最後問問大家,你覺得我們應該主動聯繫外星文明嗎?

  1. 當然要,我相信探索一定是好的,我覺得引力波通訊更有機會!
  2. 先不要,我已經可以想像被外星文明奴役的未來了!
  3. 為了維繫美中之間的平衡,由台灣來率先接觸外星人,當仁不讓啊!

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

延伸閱讀

參考資料

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

PanSci_96
1270 篇文章 ・ 2668 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。