0

0
0

文字

分享

0
0
0

只需幾個好問題,工作更有效率:如何用聊天機器人幫你收心與放鬆?

人機共生你我它_96
・2020/03/11 ・2502字 ・閱讀時間約 5 分鐘 ・SR值 509 ・六年級

  • 作者/楊期蘭(感謝沈奕超提供編輯建議)

「千萬不要低估職場中感受幸福的重要性:人一生中有很大一部分時間是在職場度過,那裡發生的事情對其他層面的生活有極大影響。」

— 《不公平的代價:破解階級對立的金權結構》—史迪格里茲

千萬不要低估職場中感受幸福的重要性。圖/Brooke Cagle@Unsplash

每天開工前都要在電腦前先滑一波 IG 或 FB 才能進入專注模式嗎?每天下班回到家後,腦海裡時不時還是閃過各種公事?關於怎麼在工作前快速進入狀況 (reattachment) 以及下班後脫離工作狀態 (detachment) 是許多人想追求的事。

相關研究指出這種讓大腦快速進入跟脫離工作模式的能力跟工作效率效率有關,越能在短時間收心進入專注模式以及工作後完全放鬆的人,工作表現也會提升2

有不少人會採取寫待辦清單的方式來讓自己開啟工作的一天,並且透過劃掉待辦清單清單上的項目來讓自己結束一天的時候感到有成就感。

但除此之外,有沒有其他方式?

-----廣告,請繼續往下閱讀-----

聊天機器人能幫我們收心跟放鬆?

聊天機器人除了像微軟小冰一樣陪我們閒聊、充當電商的客服回答客戶的問題或是擔任個人助理幫我們設定行事曆外,現在聊天機器人的業務範圍又更廣了。這篇發表在 2018 年人機互動研討會的研究想了解:

在工作場合中,聊天機器人會怎麼幫助上班族們上工前進入工作模式 (reattachment) 以及下班後脫離工作模式 (detachment)?

這篇來自 University of Waterloo, University of Michigan, University of California Irvine 以及微軟的研究團隊設計了一個聊天機器人,並邀請一家公司裡面的 34 位員工進行為期兩週的實驗。

第一週員工們就如同以往的工作,第二週開始,員工需要在每天上班工作前與下班前跟一個聊天機器人講話,而這個聊天機器人要做的事就是在大家開始工作前問員工:

「你想要繼續做OOO(報告、分析、投影片)嗎?」

「第一步要做什麼才能幫助你完成這件事?」

「你想要繼續有OOO(振奮、放鬆、投入)的感覺嗎?」

「如果你想要繼續有這種感覺,第一步要做什麼事比較好呢?」

上班時間對話模擬圖

而在幫助員工放鬆方面,聊天機器人會在員工下班準備離開公司前問員工:

-----廣告,請繼續往下閱讀-----

「你今天做了什麼事?」

「明天你想做哪些事?」

「今天你對所有工作項目的感覺是什麼?」

「明天工作的時候你想擁有什麼感覺?」

下班前對話模擬圖

聊天機器人讓員工更投入於工作!

研究人員分析了這些員工使用生產力工具軟體的時間,例如:使用 E-mail、Excel、Powerpoint、Word 等軟體的時間,並且請員工們時不時在工作期間回答他們當下的投入度、專注度以及放鬆程度,比較員工們第一週跟第二週的工作情況後。

結果發現當員工在上班前跟語音助理對話後,感覺自己生產力更高也更加投入於工作中,特別是在上工的第一個小時內,這些專注的感受特別強烈。

跟語音助理對話後,員工感覺自己生產力更高也更加投入於工作中。圖/GIPHY

什麼……下班後還更能放鬆!?

接著,研究者分析員工下班後寄出的 E-mail 數量,發現下班前跟語音助理對話後,員工們在下班後寄出的 E-mail 數量比較少,表示員工們離開工作環境後比較不再想到與工作有關的事。

進一步分析也發現,如果參與實驗的部分員工本身就有一套想辦法讓自己脫離工作模式的方式的話,對這些人來說,聊天機器人幫助就不大;但針對那些先前沒有這些放鬆習慣的員工而言,跟聊天機器人對話就能幫助他們下班後更加放鬆。

-----廣告,請繼續往下閱讀-----
對那些先前沒有放鬆習慣的員工而言,跟聊天機器人對話能幫助他們下班後更加放鬆。圖/GIPHY

聊天機器人帶給我們的反思

在這個實驗中,聊天機器人扮演的角色就像是有個朋友在跟我們聊天的過程中幫助我們回顧一天做了哪些事、在一天開始前先設定好工作目標。

在這些簡短對話的過程中,我們會開始反思自己應該怎麼規劃工作、該怎麼開始進行第一步、帶我們回顧一整天的工作感受,讓我們思考目前工作氣氛如何、可以如何更舒適。

其實拿掉了聊天機器人,你我都還是可以靠自己做到這件事。

試著從今天開始對自己做個小實驗,開始做事前先問自己一、兩個問題:「我今天要完成哪些事?」「要達成這個目標我需要先做什麼事?」,然後在一天工作告一段落後,試著問自己:「今天我完成了什麼事?」「完成這些事帶給我什麼感受?」試試看這麼做之後,對於自己工作的狀態有沒有什麼不同於以往的變化。

即便不是工作狂,我們每個人的一生中也有大半時間是在工作場合中度過,如何讓工作的過程更加有意義、有樂趣、更享受,應該能讓我們每天過得更充實愉快。

-----廣告,請繼續往下閱讀-----
如何讓工作的過程更加有意義、有樂趣、更享受,能讓我們每天過得更充實愉快。圖/True Agency@Unslpash

讓聊天機器人成為工作上的好夥伴!

如果你是對聊天機器人有興趣的開發者或設計師,也許可以思考的是要如何針對不同的使用者客製化適合他們的收心跟放鬆對話,例如透過每個使用者不同的工作作息與習慣,設計不同的收心與放鬆策略。

另一方面,也可以思考要如何才能讓聊天機器人幫助使用者反思或提醒使用者工作中有趣的部分,像是讓機器人問使用者:「今天工作中有什麼有趣的部分嗎?」,帶領使用者思考這份工作對他的意義,幫助使用者反覆思考工作中每件事的意義與樂趣。

註:本篇是擷取原始論文中部分內容搭配筆者想分享的概念所架構而成,部分研究細節與討論並未完全呈現,鼓勵有興趣的讀者直接參考原文深入了解細節。本篇目的在於讓讀者了解人機互動領域中如何設計語音助理。內文並非逐字翻譯,亦不能取代原文1

參考文獻

  1. Williams, A. C., Kaur, H., Mark, G., Thompson, A. L., Iqbal, S. T., & Teevan, J. (2018, April). Supporting workplace detachment and reattachment with conversational intelligence. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (p. 88). ACM.
  2. Volman, F. E., Bakker, A. B., & Xanthopoulou, D. (2013). Recovery at home and performance at work: A diary study on self–family facilitation. European Journal of Work and Organizational Psychology, 22(2), 218–234.

本文轉載自人機共生你我它

-----廣告,請繼續往下閱讀-----
文章難易度
人機共生你我它_96
12 篇文章 ・ 4 位粉絲
由致力於人機互動研究(HCI, Human-Computer Interaction)的研究者與實務工作者所創立,我們定期發表人機互動相關文章,與讀者一起思考科技對社會生活帶來的好處與限制。

0

1
0

文字

分享

0
1
0
停工即停薪:如何證明你的時間值多少?車禍背後的認知 x 情緒 x 金錢 x 法律大混戰
鳥苷三磷酸 (PanSci Promo)_96
・2026/01/09 ・3351字 ・閱讀時間約 6 分鐘

-----廣告,請繼續往下閱讀-----

本文與 PAMO車禍線上律師 合作,泛科學企劃執行

走在台灣的街頭,你是否發現馬路變得越來越「急躁」?滿街穿梭的外送員、分秒必爭的多元計程車,為了拚單量與獎金,每個人都在跟時間賽跑 。與此同時,拜經濟發展所賜,路上的豪車也變多了 。

這場關於速度與金錢的博弈,讓車禍不再只是一場意外,更是一場複雜的經濟算計。PAMO 車禍線上律師施尚宏律師在接受《思想實驗室 video podcast》訪談時指出,我們正處於一個交通生態的轉折點,當「把車當生財工具」的職業駕駛,撞上了「將車視為珍貴資產」的豪車車主,傳統的理賠邏輯往往會失靈 。

在「停工即停薪」(有跑才有錢,沒跑就沒收入)的零工經濟時代,如果運氣不好遇上車禍,我們該如何證明自己的時間價值?又該如何在保險無法覆蓋的灰色地帶中全身而退?

-----廣告,請繼續往下閱讀-----
如果運氣不好遇上車禍,我們該如何證明自己的時間價值?/ 圖片來源: Nano Banana

薪資證明的難題:零工經濟者的「隱形損失」

過去處理車禍理賠,邏輯相對單純:拿出公司的薪資單或扣繳憑單,計算這幾個月的平均薪資,就能算出因傷停工的「薪資損失」。

但在零工經濟時代,這套邏輯卡關了!施尚宏律師指出,許多外送員、自由接案者或是工地打工者,他們的收入往往是領現金,或者分散在多個不同的 App 平台中 。更麻煩的是,零工經濟的特性是「高度變動」,上個月可能拚了 7 萬,這個月休息可能只有 0 元,導致「平均收入」難以定義 。

這時候,律師的角色就不只是法條的背誦者,更像是一名「翻譯」。

施律師解釋「PAMO車禍線上律師的工作是把外送員口中零散的『跑單損失』,轉譯成法官或保險公司聽得懂的法律語言。」 這包括將不同平台(如 Uber、台灣大車隊)的流水帳整合,或是找出過往的接單紀錄來證明當事人的「勞動能力」。即使當下沒有收入(例如學生開學期間),只要能證明過往的接單能力與紀錄,在談判桌上就有籌碼要求合理的「勞動力減損賠償 」。

-----廣告,請繼續往下閱讀-----
PAMO車禍線上律師的工作是把外送員口中零散的『跑單損失』,轉譯成法官或保險公司聽得懂的法律語言 / 圖片來源: Nano Banana

300 萬張罰單背後的僥倖:你的直覺,正在害死你

根據警政署統計,台灣交通違規的第一名常年是「違規停車」,一年可以開出約 300 萬張罰單 。這龐大的數字背後,藏著兩個台灣駕駛人最容易誤判的「直覺陷阱」。

陷阱 A:我在紅線違停,人還在車上,沒撞到也要負責? 許多人認為:「我人就在車上,車子也沒動,甚至是熄火狀態。結果一台機車為了閃避我,自己操作不當摔倒了,這關我什麼事?」

施律師警告,這是一個致命的陷阱。「人在車上」或「車子沒動」在法律上並不是免死金牌 。法律看重的是「因果關係」。只要你的違停行為阻礙了視線或壓縮了車道,導致後方車輛必須閃避而發生事故,你就可能必須背負民事賠償責任,甚至揹上「過失傷害」的刑責 。 

數據會說話: 台灣每年約有 700 件車禍是直接因違規停車導致的 。這 300 萬張罰單背後的僥倖心態,其巨大的代價可能是人命。

-----廣告,請繼續往下閱讀-----

陷阱 B:變換車道沒擦撞,對方自己嚇到摔車也算我的? 另一個常年霸榜的肇事原因是「變換車道不當」 。如果你切換車道時,後方騎士因為嚇到而摔車,但你感覺車身「沒震動、沒碰撞」,能不能直接開走?

答案是:絕對不行。

施律師強調,車禍不以「碰撞」為前提 。只要你的駕駛行為與對方的事故有因果關係,你若直接離開現場,在法律上就構成了「肇事逃逸」。這是一條公訴罪,後果遠比你想像的嚴重。正確的做法永遠是:停下來報警,釐清責任,並保留行車記錄器自保 。

正確的做法永遠是:停下來報警,釐清責任,並保留行車記錄器自保 。/ 圖片來源: Nano Banana

保險不夠賠?豪車時代的「超額算計」

另一個現代駕駛的惡夢,是撞到豪車。這不僅是因為修車費貴,更因為衍生出的「代步費用」驚人。

-----廣告,請繼續往下閱讀-----

施律師舉例,過去撞到車,只要把車修好就沒事。但現在如果撞到一台 BMW 320,車主可能會主張修車的 8 天期間,他需要租一台同等級的 BMW 320 來代步 。以一天租金 4000 元計算,光是代步費就多了 3 萬多塊 。這時候,一般人會發現「全險」竟然不夠用。為什麼?

因為保險公司承擔的是「合理的賠償責任」,他們有內部的數據庫,只願意賠償一般行情的修車費或代步費 。但對方車主可能不這麼想,為了拿到這筆額外的錢,對方可能會採取「以刑逼民」的策略:提告過失傷害,利用刑事訴訟的壓力(背上前科的恐懼),迫使你自掏腰包補足保險公司不願賠償的差額 。

這就是為什麼在全險之外,駕駛人仍需要懂得談判策略,或考慮尋求律師協助,在保險公司與對方的漫天喊價之間,找到一個停損點 。

談判桌的最佳姿態:「溫柔而堅定」最有效?

除了有單據的財損,車禍中最難談判的往往是「精神慰撫金」。施律師直言,這在法律上沒有公式,甚至有點像「開獎」,高度依賴法官的自由心證 。

-----廣告,請繼續往下閱讀-----

雖然保險公司內部有一套簡單的算法(例如醫療費用的 2 到 5 倍),但到了法院,法官會考量雙方的社會地位、傷勢嚴重程度 。在缺乏標準公式的情況下,正確的「態度」能幫您起到加分效果。

施律師建議,在談判桌上最好的姿態是「溫柔而堅定」。有些人會試圖「扮窮」或「裝兇」,這通常會有反效果。特別是面對看過無數案件的保險理賠員,裝兇只會讓對方心裡想著:「進了法院我保證你一毛都拿不到,準備看你笑話」。

相反地,如果你能客氣地溝通,但手中握有完整的接單紀錄、醫療單據,清楚知道自己的底線與權益,這種「堅定」反而能讓談判對手買單,甚至在證明不足的情況下(如外送員的開學期間收入),更願意採信你的主張 。

車禍不只是一場意外,它是認知、情緒、金錢與法律邏輯的總和 。

在這個交通環境日益複雜的時代,無論你是為了生計奔波的職業駕駛,還是天天上路的通勤族,光靠保險或許已經不夠。大部分的車禍其實都是小案子,可能只是賠償 2000 元的輕微擦撞,或是責任不明的糾紛。為了這點錢,要花幾萬塊請律師打官司絕對「不划算」。但當事人往往會因為資訊落差,恐懼於「會不會被告肇逃?」、「會不會留案底?」、「賠償多少才合理?」而整夜睡不著覺 。

-----廣告,請繼續往下閱讀-----

PAMO看準了這個「焦慮商機」, 推出了一種顛覆傳統的解決方案——「年費 1200 元的訂閱制法律服務 」。

這就像是「法律界的 Netflix」或「汽車強制險」的概念。PAMO 的核心邏輯不是「代打」,而是「賦能」。不同於傳統律師收費高昂,PAMO 提倡的是「大腦武裝」,當車禍發生時,線上律師團提供策略,教你怎麼做筆錄、怎麼蒐證、怎麼判斷對方開價合不合理等。

施律師表示,他們的目標是讓客戶在面對不確定的風險時,背後有個軍師,能安心地睡個好覺 。平時保留好收入證明、發生事故時懂得不亂說話、與各方談判時掌握對應策略 。

平時保留好收入證明、發生事故時懂得不亂說話、與各方談判時掌握對應策略 。 / 圖片來源: Nano Banana

從違停的陷阱到訂閱制的解方,我們正處於交通與法律的轉型期。未來,挑戰將更加嚴峻。

-----廣告,請繼續往下閱讀-----

當 AI 與自駕車(Level 4/5)真正上路,一旦發生事故,責任主體將從「駕駛人」轉向「車廠」或「演算法系統」 。屆時,誰該負責?怎麼舉證?

但在那天來臨之前,面對馬路上的豪車、零工騎士與法律陷阱,你選擇相信運氣,還是相信策略? 先「武裝好自己的大腦」,或許才是現代駕駛人最明智的保險。

PAMO車禍線上律師官網:https://pse.is/8juv6k 

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

1
0

文字

分享

0
1
0
解密機器人如何學會思考、觸摸與變形
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/09 ・6820字 ・閱讀時間約 14 分鐘

本文與 Perplexity 合作,泛科學企劃執行

「Hello. I am… a robot.」

在我們的記憶裡,機器人的聲音就該是冰冷、單調,不帶一絲情感 。它們的動作僵硬,肢體不協調,像一個沒有靈魂的傀儡,甚至啟發我們創造了機械舞來模仿那獨特的笨拙可愛。但是,現今的機器人發展不再只會跳舞或模仿人聲,而是已經能獨立完成一場膽囊切除手術。

就在2025年,美國一間實驗室發表了一項成果:一台名為「SRT-H」的機器人(階層式手術機器人Transformer),在沒有人類醫師介入的情況下,成功自主完成了一場完整的豬膽囊切除手術。SRT-H 正是靠著從錯誤中學習的能力,最終在八個不同的離體膽囊上,達成了 100% 的自主手術成功率。

-----廣告,請繼續往下閱讀-----

這項成就的意義重大,因為過去機器人手術的自動化,大多集中在像是縫合這樣的單一「任務」上。然而,這一場完整的手術,是一個包含數十個步驟、需要連貫策略與動態調整的複雜「程序」。這是機器人首次在包含 17 個步驟的完整膽囊切除術中,實現了「步驟層次的自主性」。

這就引出了一個讓我們既興奮又不安的核心問題:我們究竟錯過了什麼?機器人是如何在我們看不見的角落,悄悄完成了從「機械傀儡」到「外科醫生」的驚人演化?

這趟思想探險,將為你解密 SRT-H 以及其他五款同樣具備革命性突破的機器人。你將看到,它們正以前所未有的方式,發展出生物般的觸覺、理解複雜指令、學會團隊合作,甚至開始自我修復與演化,成為一種真正的「準生命體」 。

所以,你準備好迎接這個機器人的新紀元了嗎?

-----廣告,請繼續往下閱讀-----

只靠模仿還不夠?手術機器人還需要學會「犯錯」與「糾正」

那麼,SRT-H 這位機器人的外科大腦,究竟藏著什麼秘密?答案就在它創新的「階層式框架」設計裡 。

你可以想像,SRT-H 的腦中,住著一個分工明確的兩人團隊,就像是漫畫界的傳奇師徒—黑傑克與皮諾可 。

  • 第一位,是動口不動手的總指揮「黑傑克」: 它不下達具體的動作指令,而是在更高維度的「語言空間」中進行策略規劃 。它發出的命令,是像「抓住膽管」或「放置止血夾」這樣的高層次任務指令 。
  • 第二位,是靈巧的助手「皮諾可」: 它負責接收黑傑克的語言指令,並將這些抽象的命令,轉化為機器手臂毫釐不差的精準運動軌跡 。

但最厲害的還不是這個分工,而是它們的學習方式。SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。但這還只是開始,研究人員在訓練過程中,會刻意讓它犯錯,並向它示範如何從抓取失敗、角度不佳等糟糕的狀態中恢復過來 。這種獨特的訓練方法,被稱為「糾正性示範」 。

SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。 / 圖片來源:shutterstock

這項訓練,讓 SRT-H 學會了一項外科手術中最關鍵的技能:當它發現執行搞砸了,它能即時識別偏差,並發出如「重試抓取」或「向左調整」等「糾正性指令」 。這套內建的錯誤恢復機制至關重要。當研究人員拿掉這個糾正能力後,機器人在遇到困難時,要不是完全失敗,就是陷入無效的重複行為中 。

-----廣告,請繼續往下閱讀-----

正是靠著這種從錯誤中學習、自我修正的能力,SRT-H 最終在八次不同的手術中,達成了 100% 的自主手術成功率 。

SRT-H 證明了機器人開始學會「思考」與「糾錯」。但一個聰明的大腦,足以應付更混亂、更無法預測的真實世界嗎?例如在亞馬遜的倉庫裡,機器人不只需要思考,更需要實際「會做事」。

要能精準地與環境互動,光靠視覺或聽覺是不夠的。為了讓機器人能直接接觸並處理日常生活中各式各樣的物體,它就必須擁有生物般的「觸覺」能力。

解密 Vulcan 如何學會「觸摸」

讓我們把場景切換到亞馬遜的物流中心。過去,這裡的倉儲機器人(如 Kiva 系統)就像放大版的掃地機器人,核心行動邏輯是極力「避免」與周遭環境發生任何物理接觸,只負責搬運整個貨架,再由人類員工挑出包裹。

-----廣告,請繼續往下閱讀-----

但 2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan。在亞馬遜的物流中心裡,商品被存放在由彈性帶固定的織物儲物格中,而 Vulcan 的任務是必須主動接觸、甚至「撥開」彈性織網,再從堆放雜亂的儲物格中,精準取出單一包裹,且不能造成任何損壞。

2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan / 圖片引用:https://www.aboutamazon.com/news

Vulcan 的核心突破,就在於它在「拿取」這個動作上,學會了生物般的「觸覺」。它靈活的機械手臂末端工具(EOAT, End-Of-Arm Tool),不僅配備了攝影機,還搭載了能測量六個自由度的力與力矩感測器。六個自由度包含上下、左右、前後的推力,和三個維度的旋轉力矩。這就像你的手指,裡頭分布著非常多的受器,不只能感測壓力、還能感受物體橫向拉扯、運動等感觸。

EOAT 也擁有相同精確的「觸覺」,能夠在用力過大之前即時調整力道。這讓 Vulcan 能感知推動一個枕頭和一個硬紙盒所需的力量不同,從而動態調整行為,避免損壞貨物。

其實,這更接近我們人類與世界互動的真實方式。當你想拿起桌上的一枚硬幣時,你的大腦並不會先計算出精準的空間座標。實際上,你會先把手伸到大概的位置,讓指尖輕觸桌面,再沿著桌面滑動,直到「感覺」到硬幣的邊緣,最後才根據觸覺決定何時彎曲手指、要用多大的力量抓起這枚硬幣。Vulcan 正是在學習這種「視覺+觸覺」的混合策略,先用攝影機判斷大致的空間,再用觸覺回饋完成最後精細的操作。

-----廣告,請繼續往下閱讀-----

靠著這項能力,Vulcan 已經能處理亞馬遜倉庫中約 75% 的品項,並被優先部署來處理最高和最低層的貨架——這些位置是最容易導致人類員工職業傷害的位置。這也讓自動化的意義,從單純的「替代人力」,轉向了更具建設性的「增強人力」。

SRT-H 在手術室中展現了「專家級的腦」,Vulcan 在倉庫中演化出「專家級的手」。但你發現了嗎?它們都還是「專家」,一個只會開刀,一個只會揀貨。雖然這種「專家型」設計能有效規模化、解決痛點並降低成本,但機器人的終極目標,是像人類一樣成為「通才」,讓單一機器人,能在人類環境中執行多種不同任務。

如何教一台機器人「舉一反三」?

你問,機器人能成為像我們一樣的「通才」嗎?過去不行,但現在,這個目標可能很快就會實現了。這正是 NVIDIA 的 GR00T 和 Google DeepMind 的 RT-X 等專案的核心目標。

過去,我們教機器人只會一個指令、一個動作。但現在,科學家們換了一種全新的教學思路:停止教機器人完整的「任務」,而是開始教它們基礎的「技能基元」(skill primitives),這就像是動作的模組。

-----廣告,請繼續往下閱讀-----

例如,有負責走路的「移動」(Locomotion) 基元,和負責抓取的「操作」(Manipulation) 基元。AI 模型會透過強化學習 (Reinforcement Learning) 等方法,學習如何組合這些「技能基元」來達成新目標。

舉個例子,當 AI 接收到「從冰箱拿一罐汽水給我」這個新任務時,它會自動將其拆解為一系列已知技能的組合:首先「移動」到冰箱前、接著「操作」抓住把手、拉開門、掃描罐子、抓住罐子、取出罐子。AI T 正在學會如何將這些單一的技能「融合」在一起。有了這樣的基礎後,就可以開始來大量訓練。

當多重宇宙的機器人合體練功:通用 AI 的誕生

好,既然要學,那就要練習。但這些機器人要去哪裡獲得足夠的練習機會?總不能直接去你家廚房實習吧。答案是:它們在數位世界裡練習

NVIDIA 的 Isaac Sim 等平台,能創造出照片級真實感、物理上精確的模擬環境,讓 AI 可以在一天之內,進行相當於數千小時的練習,獨自刷副本升級。這種從「模擬到現實」(sim-to-real)的訓練管線,正是讓訓練這些複雜的通用模型變得可行的關鍵。

-----廣告,請繼續往下閱讀-----

DeepMind 的 RT-X 計畫還發現了一個驚人的現象:用來自多種「不同類型」機器人的數據,去訓練一個單一的 AI 模型,會讓這個模型在「所有」機器人上表現得更好。這被稱為「正向轉移」(positive transfer)。當 RT-1-X 模型用混合數據訓練後,它在任何單一機器人上的成功率,比只用該機器人自身數據訓練的模型平均提高了 50%。

這就像是多重宇宙的自己各自練功後,經驗值合併,讓本體瞬間變強了。這意味著 AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。

AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。/ 圖片來源:shutterstock

不再是工程師,而是「父母」: AI 的新學習模式

這也導向了一個科幻的未來:或許未來可能存在一個中央「機器人大腦」,它可以下載到各種不同的身體裡,並即時適應新硬體。

這種學習方式,也從根本上改變了我們與機器人的互動模式。我們不再是逐行編寫程式碼的工程師,而是更像透過「示範」與「糾正」來教導孩子的父母。

NVIDIA 的 GR00T 模型,正是透過一個「數據金字塔」來進行訓練的:

  • 金字塔底層: 是大量的人類影片。
  • 金字塔中層: 是海量的模擬數據(即我們提過的「數位世界」練習)。
  • 金字塔頂層: 才是最珍貴、真實的機器人操作數據。

這種模式,大大降低了「教導」機器人新技能的門檻,讓機器人技術變得更容易規模化與客製化。

當機器人不再是「一個」物體,而是「任何」物體?

我們一路看到了機器人如何學會思考、觸摸,甚至舉一反三。但這一切,都建立在一個前提上:它們的物理形態是固定的。

但,如果連這個前提都可以被打破呢?這代表機器人的定義不再是固定的形態,而是可變的功能:它能改變身體來適應任何挑戰,不再是一台單一的機器,而是一個能根據任務隨選變化的物理有機體。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院特別具有代表性,該學院的仿生機器人實驗室(Bioinspired Robotics Group, BIRG)2007 年就打造模組化自重構機器人 Roombots。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院(EPFL)特別具有代表性。該學院的仿生機器人實驗室(BIRG)在 2007 年就已打造出模組化自重構機器人 Roombots。而 2023 年,來自 EPFL 的另一個實驗室——可重組機器人工程實驗室(RRL),更進一步推出了 Mori3,這是一套把摺紙藝術和電腦圖學巧妙融合的模組化機器人系統。

2023 年來自 EPFL 的另一個實驗室—可重組機器人工程實驗室(RRL)推出了 Mori3 © 2023 Christoph Belke, EPFL RRL

Mori3 的核心,是一個個小小的三角形模組。別看它簡單,每個模組都是一個獨立的機器人,有自己的電源、馬達、感測器和處理器,能獨立行動,也能和其他模組合作。最厲害的是,它的三條邊可以自由伸縮,讓這個小模組本身就具備「變形」能力。

當許多 Mori3 模組連接在一起時,就能像一群活的拼圖一樣,從平面展開,組合成各種三維結構。研究團隊將這種設計稱為「物理多邊形網格化」。在電腦圖學裡,我們熟悉的 3D 模型,其實就是由許多多邊形(通常是三角形)拼湊成的網格。Mori3 的創新之處,就是把這種純粹的數位抽象,真正搬到了現實世界,讓模組們化身成能活動的「實體網格」。

這代表什麼?團隊已經展示了三種能力:

  • 移動:他們用十個模組能組合成一個四足結構,它能從平坦的二維狀態站立起來,並開始行走。這不只是結構變形,而是真正的協調運動。
  • 操縱: 五個模組組合成一條機械臂,撿起物體,甚至透過末端模組的伸縮來擴大工作範圍。
  • 互動: 模組們能形成一個可隨時變形的三維曲面,即時追蹤使用者的手勢,把手的動作轉換成實體表面的起伏,等於做出了一個會「活」的觸控介面。

這些展示,不只是實驗室裡的炫技,而是真實證明了「物理多邊形網格化」的潛力:它不僅能構建靜態的結構,還能創造具備複雜動作的動態系統。而且,同一批模組就能在不同情境下切換角色。

想像一個地震後的救援場景:救援隊帶來的不是一台笨重的挖土機,而是一群這樣的模組。它們首先組合成一條長長的「蛇」形機器人,鑽入瓦礫縫隙;一旦進入開闊地後,再重組成一隻多足的「蜘蛛」,以便在不平的地面上穩定行走;發現受困者時,一部分模組分離出來形成「支架」撐住搖搖欲墜的橫樑,另一部分則組合成「夾爪」遞送飲水。這就是以任務為導向的自我演化。

這項技術的終極願景,正是科幻中的概念:可程式化物質(Programmable Matter),或稱「黏土電子學」(Claytronics)。想像一桶「東西」,你可以命令它變成任何你需要的工具:一支扳手、一張椅子,或是一座臨時的橋樑。

未來,我們只需設計一個通用的、可重構的「系統」,它就能即時創造出任務所需的特定機器人。這將複雜性從實體硬體轉移到了規劃重構的軟體上,是一個從硬體定義的世界,走向軟體定義的物理世界的轉變。

更重要的是,因為模組可以隨意分開與聚集,損壞時也只要替換掉部分零件就好。足以展現出未來機器人的適應性、自我修復與集體行為。當一群模組協作時,它就像一個超個體,如同蟻群築橋。至此,「機器」與「有機體」的定義,也將開始動搖。

從「實體探索」到「數位代理」

我們一路見證了機器人如何從單一的傀儡,演化為學會思考的外科醫生 (SRT-H)、學會觸摸的倉儲專家 (Vulcan)、學會舉一反三的通才 (GR00T),甚至是能自我重構成任何形態的「可程式化物質」(Mori3)。

但隨著機器人技術的飛速發展,一個全新的挑戰也隨之而來:在一個 AI 也能生成影像的時代,我們如何分辨「真實的突破」與「虛假的奇觀」?

舉一個近期的案例:2025 年 2 月,一則影片在網路上流傳,顯示一台人形機器人與兩名人類選手進行羽毛球比賽,並且輕鬆擊敗了人類。我的第一反應是懷疑:這太誇張了,一定是 AI 合成的影片吧?但,該怎麼驗證呢?答案是:用魔法打敗魔法。

在眾多 AI 工具中,Perplexity 特別擅長資料驗證。例如這則羽球影片的內容貼給 Perplexity,它馬上就告訴我:該影片已被查證為數位合成或剪輯。但它並未就此打住,而是進一步提供了「真正」在羽球場上有所突破的機器人—來自瑞士 ETH Zurich 團隊的 ANYmal-D

接著,選擇「研究模式」,就能深入了解 ANYmal-D 的詳細原理。原來,真正的羽球機器人根本不是「人形」,而是一台具備三自由度關節的「四足」機器人。

如果你想更深入了解,Perplexity 的「實驗室」功能,還能直接生成一份包含圖表、照片與引用來源的完整圖文報告。它不只介紹了 ANYmal-D 在羽球上的應用,更詳細介紹了瑞士聯邦理工學院發展四足機器人的完整歷史:為何選擇四足?如何精進硬體與感測器結構?以及除了運動領域外,四足機器人如何在關鍵的工業領域中真正創造價值。

AI 代理人:數位世界的新物種

從開刀、揀貨、打球,到虛擬練功,這些都是機器人正在學習「幫我們做」的事。但接下來,機器人將獲得更強的「探索」能力,幫我們做那些我們自己做不到的事。

這就像是,傳統網路瀏覽器與 Perplexity 的 Comet 瀏覽器之間的差別。Comet 瀏覽器擁有自主探索跟決策能力,它就像是數位世界裡的機器人,能成為我們的「代理人」(Agent)

它的核心功能,就是拆解過去需要我們手動完成的多步驟工作流,提供「專業代工」,並直接交付成果。

例如,你可以直接對它說:「閱讀這封會議郵件,檢查我的行事曆跟代辦事項,然後草擬一封回信。」或是直接下達一個複雜的指令:「幫我訂 Blue Origin 的太空旅遊座位,記得要來回票。」

接著,你只要兩手一攤,Perplexity 就會接管你的瀏覽器,分析需求、執行步驟、最後給你結果。你再也不用自己一步步手動搜尋,或是在不同網站上重複操作。

AI 代理人正在幫我們探索險惡的數位網路,而實體機器人,則在幫我們前往真實的物理絕境。

立即點擊專屬連結 https://perplexity.sng.link/A6awk/k74… 試用 Perplexity吧! 現在申辦台灣大哥大月付 599(以上) 方案,還可以獲得 1 年免費 Perplexity Pro plan 喔!(價值 新台幣6,750)

◆Perplexity 使用實驗室功能對 ANYmal-D 與團隊的全面分析 https://drive.google.com/file/d/1NM97…

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

0

17
4

文字

分享

0
17
4
為機器人換上「物理大腦」:一場終結AI數位囚禁的革命
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/03 ・5732字 ・閱讀時間約 11 分鐘

本文與 研華科技 合作,泛科學企劃執行

我們都看過那種影片,對吧?網路上從不缺乏讓人驚嘆的機器人表演:數十台人形機器人像軍隊一樣整齊劃一地耍雜技 ,或是波士頓動力的機器狗,用一種幾乎違反物理定律的姿態後空翻、玩跑酷 。每一次,社群媒體總會掀起一陣「未來已來」、「人類要被取代了」的驚呼 。

但當你關掉螢幕,看看四周,一個巨大的落差感就來了:說好的機器人呢?為什麼大街上沒有他們的身影,為什麼我家連一件衣服都還沒人幫我摺?

這份存在於數位螢幕與物理現實之間的巨大鴻溝,源於一個根本性的矛盾:當代AI在數位世界裡聰明絕頂,卻在物理世界中笨拙不堪。它可以寫詩、可以畫畫,但它沒辦法為你端一杯水。

-----廣告,請繼續往下閱讀-----

這個矛盾,在我們常見的兩種機器人展示中體現得淋漓盡致。第一種,是動作精準、甚至會跳舞的類型,這本質上是一場由工程師預先寫好劇本的「戲」,機器人對它所處的世界一無所知 。第二種,則是嘗試執行日常任務(如開冰箱、拿蘋果)的類型,但其動作緩慢不穩,彷彿正在復健的病人 。

這兩種極端的對比,恰恰點出了機器人技術的真正瓶頸:它們的「大腦」還不夠強大,無法即時處理與學習真實世界的突發狀況 。

這也引出了本文試圖探索的核心問題:新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦,真的能終結機器人的「復健時代」,開啟一個它們能真正理解、並與我們共同生活的全新紀元嗎?

新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦 / 圖片來源:研華科技

為何我們看到的機器人,總像在演戲或復健?

那我們怎麼理解這個看似矛盾的現象?為什麼有些機器人靈活得像舞者,有些卻笨拙得像病人?答案,就藏在它們的「大腦」運作方式裡。

-----廣告,請繼續往下閱讀-----

那些動作極其精準、甚至會後空翻的機器人,秀的其實是卓越的硬體性能——關節、馬達、減速器的完美配合。但它的本質,是一場由工程師預先寫好劇本的舞台劇 。每一個角度、每一分力道,都是事先算好的,機器人本身並不知道自己為何要這麼做,它只是在「執行」指令,而不是在「理解」環境。

而另一種,那個開冰箱慢吞吞的機器人,雖然看起來笨,卻是在做一件革命性的事:它正在試圖由 AI 驅動,真正開始「理解」這個世界 。它在學習什麼是冰箱、什麼是蘋果、以及如何控制自己的力量才能順利拿起它。這個過程之所以緩慢,正是因為過去驅動它的「大腦」,也就是 AI 晶片的算力還不夠強,無法即時處理與學習現實世界中無窮的變數 。

這就像教一個小孩走路,你可以抱著他,幫他擺動雙腿,看起來走得又快又穩,但那不是他自己在走。真正的學習,是他自己搖搖晃晃、不斷跌倒、然後慢慢找到平衡的過程。過去的機器人,大多是前者;而我們真正期待的,是後者。

所以,問題的核心浮現了:我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好?

-----廣告,請繼續往下閱讀-----
我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好? / 圖片來源:shutterstock

機器人的大腦,為什麼不能放在雲端?

聽起來好像很合理,對吧?把所有複雜的運算都交給雲端最強大的伺服器,機器人本身只要負責接收指令就好了。但……真的嗎?

想像一下,如果你的大腦在雲端,你看到一個球朝你飛過來,視覺訊號要先上傳到雲端,雲端分析完,再把「快閃開」的指令傳回你的身體。這中間只要有零點幾秒的網路延遲,你大概就已經鼻青臉腫了。

現實世界的互動,需要的是「即時反應」。任何網路延遲,在物理世界中都可能造成無法彌補的失誤 。因此,運算必須在機器人本體上完成,這就是「邊緣 AI」(Edge AI)的核心概念 。而 NVIDIA  Jetson 平台,正是為了解決這種在裝置端進行高運算、又要兼顧低功耗的需求,而誕生的關鍵解決方案 。

NVIDIA Jetson 就像一個緊湊、節能卻效能強大的微型電腦,專為在各種裝置上運行 AI 任務設計 。回顧它的演進,早期的 Jetson 系統主要用於視覺辨識搭配AI推論,像是車牌辨識、工廠瑕疵檢測,或者在相機裡分辨貓狗,扮演著「眼睛」的角色,看得懂眼前的事物 。但隨著算力提升,NVIDIA Jetson 的角色也逐漸從單純的「眼睛」,演化為能夠控制手腳的「大腦」,開始驅動更複雜的自主機器,無論是地上跑的、天上飛的,都將NVIDIA Jetson 視為核心運算中樞 。

-----廣告,請繼續往下閱讀-----

但再強大的晶片,如果沒有能適應現場環境的「容器」,也無法真正落地。這正是研華(Advantech)的角色,我們將 NVIDIA Jetson 平台整合進各式工業級主機與邊緣運算設備,確保它能在高熱、灰塵、潮濕或震動的現場穩定運行,滿足從工廠到農場到礦場、從公車到貨車到貨輪等各種使用環境。換句話說,NVIDIA 提供「大腦」,而研華則是讓這顆大腦能在真實世界中呼吸的「生命支持系統」。

這個平台聽起來很工業、很遙遠,但它其實早就以一種你意想不到的方式,進入了我們的生活。

從Switch到雞蛋分揀員,NVIDIA Jetson如何悄悄改變世界?

如果我告訴你,第一代的任天堂Switch遊戲機與Jetson有相同血緣,你會不會很驚訝?它的核心處理器X1晶片,與Jetson TX1模組共享相同架構。這款遊戲機對高效能運算和低功耗的嚴苛要求,正好與 Jetson 的設計理念不謀而合 。

而在更專業的領域,研華透過 NVIDIA Jetson 更是解決了許多真實世界的難題 。例如

-----廣告,請繼續往下閱讀-----
  • 在北美,有客戶利用 AI 進行雞蛋品質檢測,研華的工業電腦搭載NVIDIA Jetson 模組與相機介面,能精準辨識並挑出髒污、雙黃蛋到血蛋 
  • 在日本,為避免鏟雪車在移動時發生意外,導入了環繞視覺系統,當 AI 偵測到周圍有人時便會立刻停止 ;
  • 在水資源珍貴的以色列,研華的邊緣運算平台搭載NVIDIA Jetson模組置入無人機內,24 小時在果園巡航,一旦發現成熟的果實就直接凌空採摘,實現了「無落果」的終極目標 。

這些應用,代表著 NVIDIA Jetson Orin™ 世代的成功,它讓「自動化」設備變得更聰明 。然而,隨著大型語言模型(LLM)的浪潮來襲,人們的期待也從「自動化」轉向了「自主化」 。我們希望機器人不僅能執行命令,更能理解、推理。

Orin世代的算力在執行人形機器人AI推論時的效能約為每秒5到10次的推論頻率,若要機器人更快速完成動作,需要更強大的算力。業界迫切需要一個更強大的大腦。這也引出了一個革命性的問題:AI到底該如何學會「動手」,而不只是「動口」?

革命性的一步:AI如何學會「動手」而不只是「動口」?

面對 Orin 世代的瓶頸,NVIDIA 給出的答案,不是溫和升級,而是一次徹底的世代跨越— NVIDIA Jetson Thor 。這款基於最新 Blackwell 架構的新模組,峰值性能是前代的 7.5 倍,記憶體也翻倍 。如此巨大的效能提升,目標只有一個:將過去只能在雲端資料中心運行的、以 Transformer 為基礎的大型 AI 模型,成功部署到終端的機器上 。

NVIDIA Jetson Thor 的誕生,將驅動機器人控制典範的根本轉變。這要從 AI 模型的演進說起:

-----廣告,請繼續往下閱讀-----
  1. 第一階段是 LLM(Large Language Model,大型語言模型):
    我們最熟悉的 ChatGPT 就屬此類,它接收文字、輸出文字,實現了流暢的人機對話 。
  2. 第二階段是 VLM(Vision-Language Model,視覺語言模型):
    AI 學會了看,可以上傳圖片,它能用文字描述所見之物,但輸出結果仍然是給人類看的自然語言 。
  3. 第三階段則是 VLA(Vision-Language-Action Model,視覺語言行動模型):
    這是革命性的一步。VLA 模型的輸出不再是文字,而是「行動指令(Action Token)」 。它能將視覺與語言的理解,直接轉化為控制機器人關節力矩、速度等物理行為的具體參數 。

這就是關鍵! 過去以NVIDIA Jetson Orin™作為大腦的機器人,僅能以有限的速度運行VLA模型。而由 VLA 模型驅動,讓 AI 能夠感知、理解並直接與物理世界互動的全新形態,正是「物理 AI」(Physical AI)的開端 。NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 。

NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 / 圖片來源:研華科技

其中,物理 AI 強調的 vision to action,就需要研華設計對應的硬體來實現;譬如視覺可能來自於一般相機、深度相機、紅外線相機甚至光達,你的系統就要有對應的介面來整合視覺;你也會需要控制介面去控制馬達伸長手臂或控制夾具拿取物品;你也要有 WIFI、4G 或 5G 來傳輸資料或和別的 AI 溝通,這些都需要具體化到一個系統上,這個系統的集大成就是機器人。

好,我們有了史上最強的大腦。但一個再聰明的大腦,也需要一副強韌的身體。而這副身體,為什麼非得是「人形」?這不是一種很沒效率的執念嗎?

為什麼機器人非得是「人形」?這不是一種低效的執念嗎?

這是我一直在思考的問題。為什麼業界的主流目標,是充滿挑戰的「人形」機器人?為何不設計成效率更高的輪式,或是功能更多元的章魚型態?

-----廣告,請繼續往下閱讀-----

答案,簡單到令人無法反駁:因為我們所處的世界,是徹底為人形生物所打造的。

從樓梯的階高、門把的設計,到桌椅的高度,無一不是為了適應人類的雙足、雙手與身高而存在 。對 AI 而言,採用人形的軀體,意味著它能用與我們最相似的視角與方式去感知和學習這個世界,進而最快地理解並融入人類環境 。這背後的邏輯是,與其讓 AI 去適應千奇百怪的非人形設計,不如讓它直接採用這個已經被數千年人類文明「驗證」過的最優解 。

這也區分了「通用型 AI 人形機器人」與「專用型 AI 工業自動化設備」的本質不同 。後者像高度特化的工具,產線上的機械手臂能高效重複鎖螺絲,但它無法處理安裝柔軟水管這種預設外的任務 。而通用型人形機器人的目標,是成為一個「多面手」,它能在廣泛學習後,理解物理世界的運作規律 。理論上,今天它在產線上組裝伺服器,明天就能在廚房裡學會煮菜 。

人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態 / 圖片來源:shutterstock

但要讓一個「多面手」真正活起來,光有骨架還不夠。它必須同時擁有強大的大腦平台與遍布全身的感知神經,才能理解並回應外在環境。人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態。但這些訊號若沒有通過一個穩定的「大腦平台」,就無法匯聚成有意義的行動。

這正是研華的角色:我們不僅把 NVIDIA Jetson Thor 這顆核心晶片包載在工業級電腦中,讓它成為能真正思考與反應的「完整大腦」,同時也提供神經系統的骨幹,將感測器、I/O 介面與通訊模組可靠地連結起來,把訊號傳導進大腦。你或許看不見研華的存在,但它實際上遍布在機器人全身,像隱藏在皮膚之下的神經網絡,讓整個身體真正活過來。

但有了大腦、有了身體,接下來的挑戰是「教育」。你要怎麼教一個物理 AI?總不能讓它在現實世界裡一直摔跤,把一台幾百萬的機器人摔壞吧?

打造一個「精神時光屋」,AI的學習速度能有多快?

這個問題非常關鍵。大型語言模型可以閱讀網際網路上浩瀚的文本資料,但物理世界中用於訓練的互動資料卻極其稀缺,而且在現實中反覆試錯的成本與風險實在太高 。

答案,就在虛擬世界之中。

NVIDIA Isaac Sim™等模擬平台,為這個問題提供了完美的解決方案 。它能創造出一個物理規則高度擬真的數位孿生(Digital Twin)世界,讓 AI 在其中進行訓練 。

這就像是為機器人打造了一個「精神時光屋」 。它可以在一天之內,經歷相當於現實世界千百日的學習與演練,從而在絕對安全的環境中,窮盡各種可能性,深刻領悟物理世界的定律 。透過這種「模擬-訓練-推論」的 3 Computers 閉環,Physical AI (物理AI) 的學習曲線得以指數級加速 。

我原本以為模擬只是為了節省成本,但後來發現,它的意義遠不止於此。它是在為 AI 建立一種關於物理世界的「直覺」。這種直覺,是在現實世界中難以透過有限次的試錯來建立的。

所以你看,這趟從 Switch 到人形機器人的旅程,一幅清晰的未來藍圖已經浮現了。實現物理 AI 的三大支柱已然齊備:一個劃時代的「AI 大腦」(NVIDIA Jetson Thor)、讓核心延展為「完整大腦與神經系統」的工業級骨幹(由研華 Advantech 提供),以及一個不可或缺的「教育環境」(NVIDIA Isaac Sim 模擬平台) 。

結語

我們拆解了那些酷炫機器人影片背後的真相,看見了從「自動化」走向「自主化」的巨大技術鴻溝,也見證了「物理 AI」時代的三大支柱——大腦、身軀、與教育——如何逐一到位 。

專家預測,未來 3 到 5 年內,人形機器人領域將迎來一場顯著的革命 。過去我們只能在科幻電影中想像的場景,如今正以前所未有的速度成為現實 。

這不再只是一個關於效率和生產力的問題。當一台機器,能夠觀察我們的世界,理解我們的語言,並開始以物理實體的方式與我們互動,這將從根本上改變我們與科技的關係。

所以,最後我想留給你的思想實驗是:當一個「物理 AI」真的走進你的生活,它不只是個工具,而是一個能學習、能適應、能與你共同存在於同一個空間的「非人智慧體」,你最先感受到的,會是興奮、是便利,還是……一絲不安?

這個問題,不再是「我們能否做到」,而是「當它發生時,我們準備好了嗎?」

研華已經整裝待發,現在,我們與您一起推動下一代物理 AI 與智慧設備的誕生。
https://bit.ly/4n78dR4

-----廣告,請繼續往下閱讀-----

討論功能關閉中。