0

5
0

文字

分享

0
5
0

小強求生術(下):人類有辦法打造跟蟑螂一樣「抗壓」的機器人嗎?——《破解動物忍術》

三民書局_96
・2020/03/10 ・2739字 ・閱讀時間約 5 分鐘 ・SR值 505 ・六年級

在前幾年,六足機器人的發展開始出現變革。研究人員對於可動的足式機器人一直都很感興趣,但使科學家的興趣達到巔峰的,是美國國防高等研究計劃署在 2000 年召集數名研究人員參與的特殊會議。

國防高等研究計劃署因資助月球探測而成為著名的政府機構,這些深具野心的探測計畫推動該領域的進展。那年,他們對具有跟昆蟲一樣行動能力的足式機器人產生興趣,高什克的指導教授鮑勃‧弗爾 (Bob Full) 以及密西根大學的電機工程學家丹尼爾‧科德舒克都在場。

六足機器人 RHex 圖/wikimedia

丹尼爾觀看了鮑勃有關蟑螂跋涉過困難地形的影片,因而受到啟發,建造了六足機器人 RHex,大小和體重跟 7 公斤的鬥牛犬差不多。它可以走過石頭、雜草和其他障礙物,全都是以開迴路的方式進行,也就是完全沒有接收周遭環境的回饋,即使沒有眼睛,也能奔跑而不跌倒。

堅硬與柔軟的結合

在 2009 年,微製程工業與機器人研究結合,建造了一系列的輕量級六足機器人。其中,「動態自主式爬行六足機器人」(Dynamic Autonomous Sprawled Hexapod,DASH) 是由一張厚紙板做成,僅 30 公克,可以放在手掌心。

這是由加利福尼亞大學柏克萊分校的電機工程學教授榮恩‧費林 (Ron Fearing) 的學生保羅‧柏克梅爾 (Paul Birkmeyer) 所設計的。柏克梅爾與費林使用了一種稱為「智慧複合微結構製造」(smart composite microstructures (SGM) manufacturing) 的技術,將堅硬的零件和柔軟的零件結合在一起,建造出一種複合型機器人。

  • 首先,他們使用電腦畫出一份藍圖,將要切割的地方事先安排在一個平面上。
  • 接著,他們使用雷射切割術在一張卡紙上進行切割,然後將紙對摺,並將一張具有彈性的聚酯薄片夾在中間,再使用黏著劑和加熱的方式讓卡紙和聚酯薄片永久黏附在一起。
  • 最後他們用雷射刀在上面切出洞來,讓它變成可以像立體書一樣彎曲摺疊的平坦形狀。
  • 最終完成的立體造型有六隻腳,只靠一個普通玩具遙控車會用的那種直流小馬達就能致動。

這個機器人每秒可移動自己的一個體長距離,相當於汽車以每小時 16 公里的速度前進,柔軟的外殼也讓這款機器人適於被重新設計成可輾壓的機器人。

-----廣告,請繼續往下閱讀-----

DASH 有一個根本問題使它無法被輾壓——它只能被壓到馬達的高度,因為馬達必須是堅硬的。

那時,完全以柔軟的橡膠製成的馬達尚未被發明出來。高什克的創新之處在於他用兩個小一點的馬達來驅動機器人,馬達置於機器人的左右兩側,分別驅動該側的三隻腳。由於每個馬達只需要驅動三隻腳,而非六隻,因此可以比原本的馬達還要小。

全名為「具關節機構之可壓縮機器人」(compressible robot with articulated mechanisms) 的仿生機器人 CRAM 及其自然之師美洲蟑螂。在被壓縮到原本高度的一半下,機器人仍可移動;而蟑螂則能在被壓縮到原本高度的 1/4 時仍保持運動能力。(圖片由高什克‧賈拉雅姆提供。)圖/三民提供

原版的 DASH 有一個方形底座,是用來固定六隻腳的地方。高什克在機器人的中間位置設計了一個斷裂區,讓機器人可以被往下壓,但又能回彈(如圖)。你可以把它想像成中間有彈簧連接的兩個底座,用手指把它往下壓時,機器人的兩半就會向外展開;把手放開時,機器人就會彈回來。

最後,高什克把一張聚酯薄片摺成可壓縮的外殼,就像摺紙帽那樣,然後將它覆蓋在機器人的上端。他用油來潤滑這個外殼,以減少它與隧道天花板間的摩擦力。

當機器人站立時,可以輕易走在堅硬的地面上。整個機器人只有巴掌大,僅 50 公克重,不過幾顆葡萄的重量。這是可以自主的機器人,電池和電子設備都裝在身上,它的主體是由層壓紙製成,所以可用手拿起、放下、甚至彎折扭曲。

-----廣告,請繼續往下閱讀-----

接著,高什克把機器人放進只有它一半高的隧道中,就如他所設計好的, 機器人背部的中間位置可以彎曲,讓它被壓平。然而,彈簧的反作用力大力頂住天花板和地面,產生很大的摩擦力,使機器人動彈不得。機器人掙扎著想把自己往前推,但六隻小腳卻只是對地面又抓又刮,徒勞無功。

觀察蟑螂爬行,重新修正機器人

把馬達一分為二、讓體節可以變形的設計都發揮了成效, 但現在問題出在腳上,他必須重新設計腳的部分。

原來問題出在腳上!圖/GIPHY

目前,他把腳設計成火柴般的紙造腳,而機器人就靠這些腳走路,但當機器人被壓縮時,這些火柴腳會彎離主體,使腳無法獲得足夠的抓地力。同時,當機器人遭擠壓時,因頂住上下壁而多出來的摩擦力又會阻礙前進,也就是說,腳的姿勢已經很奇怪了,而天花板加壓在機器人身上的力又使得腳必須出更多力才行。

於是,高什克重新觀看蟑螂爬行的影片。蟑螂的腳就跟牠的腹部一樣,是可以折疊的。當蟑螂不受拘束自由奔跑時,腳尖會碰觸地面,然而,在隧道中,牠把腿往外張,就像在劈腿一樣,牠用膝蓋來推離地面,跟我們爬行時一樣。而當蟑螂一離開隧道,儲存在腿部的彈性位能便立刻把蟑螂推回站立的姿勢。

高什克領悟到,機器人的腳也必須設計成可折疊的,這樣無論是站立或壓縮的姿勢,腳都能緊抓住地。他把火柴折成一半,設計出 L 形的腳,接著把連接腳的關節設計得更有彈性。當站立時,機器人會用 L 形的其中一邊走路;當被壓縮時,腳則會向外攤開,使機器人還是可以用 L 形腳的另一邊走路。這個設計使得機器人的腳無論在什麼姿態下,都可以抓牢地面。

-----廣告,請繼續往下閱讀-----
未來可壓折機器人,或許還能用在搜救行動中。圖/GIPHY

高什克的可壓折機器人或許可以應用在搜救行動。

地震過後,現場救難人員會希望評估瓦礫堆中是否仍有生還者,問題是瓦礫堆通常十分不穩定,人走在上面太危險了,這時若能派出大量像高什克設計的這類可壓折的小型機器人,裝配著感應器,就能穿梭在各個角落和裂縫來尋找生還者。高什克的機器人大部分是以廉價的材料製成,像是厚紙板和玩具馬達,因此,這種搜救機器人可以被當作消耗品使用,任務完成後毋須設法取回。

——本文摘自泛科學 2020 年 3 月選書《破解動物忍術:如何水上行走與飛簷走壁?動物運動與未來的機器人》,2020 年 1 月,三民出版

-----廣告,請繼續往下閱讀-----
文章難易度
三民書局_96
18 篇文章 ・ 12 位粉絲
創立於1953年,為了「傳播學術思想,延續文化發展」,60年來默默耕耘著書的園地。從早期的法政大學用書、三民文庫、古籍今注新譯叢書、《大辭典》,到各式英漢字典及兒童、青少年讀物,成立至今已出版了一萬多種優良圖書。不僅讀者佳評如潮,更贏得金鼎獎、小太陽獎、好書大家讀等諸多獎項的肯定。在見證半個世紀的社會與時代變遷後,三民書局已轉型為多元、綜合、全方位的出版機構。

0

1
0

文字

分享

0
1
0
解密機器人如何學會思考、觸摸與變形
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/09 ・6820字 ・閱讀時間約 14 分鐘

本文與 Perplexity 合作,泛科學企劃執行

「Hello. I am… a robot.」

在我們的記憶裡,機器人的聲音就該是冰冷、單調,不帶一絲情感 。它們的動作僵硬,肢體不協調,像一個沒有靈魂的傀儡,甚至啟發我們創造了機械舞來模仿那獨特的笨拙可愛。但是,現今的機器人發展不再只會跳舞或模仿人聲,而是已經能獨立完成一場膽囊切除手術。

就在2025年,美國一間實驗室發表了一項成果:一台名為「SRT-H」的機器人(階層式手術機器人Transformer),在沒有人類醫師介入的情況下,成功自主完成了一場完整的豬膽囊切除手術。SRT-H 正是靠著從錯誤中學習的能力,最終在八個不同的離體膽囊上,達成了 100% 的自主手術成功率。

-----廣告,請繼續往下閱讀-----

這項成就的意義重大,因為過去機器人手術的自動化,大多集中在像是縫合這樣的單一「任務」上。然而,這一場完整的手術,是一個包含數十個步驟、需要連貫策略與動態調整的複雜「程序」。這是機器人首次在包含 17 個步驟的完整膽囊切除術中,實現了「步驟層次的自主性」。

這就引出了一個讓我們既興奮又不安的核心問題:我們究竟錯過了什麼?機器人是如何在我們看不見的角落,悄悄完成了從「機械傀儡」到「外科醫生」的驚人演化?

這趟思想探險,將為你解密 SRT-H 以及其他五款同樣具備革命性突破的機器人。你將看到,它們正以前所未有的方式,發展出生物般的觸覺、理解複雜指令、學會團隊合作,甚至開始自我修復與演化,成為一種真正的「準生命體」 。

所以,你準備好迎接這個機器人的新紀元了嗎?

-----廣告,請繼續往下閱讀-----

只靠模仿還不夠?手術機器人還需要學會「犯錯」與「糾正」

那麼,SRT-H 這位機器人的外科大腦,究竟藏著什麼秘密?答案就在它創新的「階層式框架」設計裡 。

你可以想像,SRT-H 的腦中,住著一個分工明確的兩人團隊,就像是漫畫界的傳奇師徒—黑傑克與皮諾可 。

  • 第一位,是動口不動手的總指揮「黑傑克」: 它不下達具體的動作指令,而是在更高維度的「語言空間」中進行策略規劃 。它發出的命令,是像「抓住膽管」或「放置止血夾」這樣的高層次任務指令 。
  • 第二位,是靈巧的助手「皮諾可」: 它負責接收黑傑克的語言指令,並將這些抽象的命令,轉化為機器手臂毫釐不差的精準運動軌跡 。

但最厲害的還不是這個分工,而是它們的學習方式。SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。但這還只是開始,研究人員在訓練過程中,會刻意讓它犯錯,並向它示範如何從抓取失敗、角度不佳等糟糕的狀態中恢復過來 。這種獨特的訓練方法,被稱為「糾正性示範」 。

SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。 / 圖片來源:shutterstock

這項訓練,讓 SRT-H 學會了一項外科手術中最關鍵的技能:當它發現執行搞砸了,它能即時識別偏差,並發出如「重試抓取」或「向左調整」等「糾正性指令」 。這套內建的錯誤恢復機制至關重要。當研究人員拿掉這個糾正能力後,機器人在遇到困難時,要不是完全失敗,就是陷入無效的重複行為中 。

-----廣告,請繼續往下閱讀-----

正是靠著這種從錯誤中學習、自我修正的能力,SRT-H 最終在八次不同的手術中,達成了 100% 的自主手術成功率 。

SRT-H 證明了機器人開始學會「思考」與「糾錯」。但一個聰明的大腦,足以應付更混亂、更無法預測的真實世界嗎?例如在亞馬遜的倉庫裡,機器人不只需要思考,更需要實際「會做事」。

要能精準地與環境互動,光靠視覺或聽覺是不夠的。為了讓機器人能直接接觸並處理日常生活中各式各樣的物體,它就必須擁有生物般的「觸覺」能力。

解密 Vulcan 如何學會「觸摸」

讓我們把場景切換到亞馬遜的物流中心。過去,這裡的倉儲機器人(如 Kiva 系統)就像放大版的掃地機器人,核心行動邏輯是極力「避免」與周遭環境發生任何物理接觸,只負責搬運整個貨架,再由人類員工挑出包裹。

-----廣告,請繼續往下閱讀-----

但 2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan。在亞馬遜的物流中心裡,商品被存放在由彈性帶固定的織物儲物格中,而 Vulcan 的任務是必須主動接觸、甚至「撥開」彈性織網,再從堆放雜亂的儲物格中,精準取出單一包裹,且不能造成任何損壞。

2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan / 圖片引用:https://www.aboutamazon.com/news

Vulcan 的核心突破,就在於它在「拿取」這個動作上,學會了生物般的「觸覺」。它靈活的機械手臂末端工具(EOAT, End-Of-Arm Tool),不僅配備了攝影機,還搭載了能測量六個自由度的力與力矩感測器。六個自由度包含上下、左右、前後的推力,和三個維度的旋轉力矩。這就像你的手指,裡頭分布著非常多的受器,不只能感測壓力、還能感受物體橫向拉扯、運動等感觸。

EOAT 也擁有相同精確的「觸覺」,能夠在用力過大之前即時調整力道。這讓 Vulcan 能感知推動一個枕頭和一個硬紙盒所需的力量不同,從而動態調整行為,避免損壞貨物。

其實,這更接近我們人類與世界互動的真實方式。當你想拿起桌上的一枚硬幣時,你的大腦並不會先計算出精準的空間座標。實際上,你會先把手伸到大概的位置,讓指尖輕觸桌面,再沿著桌面滑動,直到「感覺」到硬幣的邊緣,最後才根據觸覺決定何時彎曲手指、要用多大的力量抓起這枚硬幣。Vulcan 正是在學習這種「視覺+觸覺」的混合策略,先用攝影機判斷大致的空間,再用觸覺回饋完成最後精細的操作。

-----廣告,請繼續往下閱讀-----

靠著這項能力,Vulcan 已經能處理亞馬遜倉庫中約 75% 的品項,並被優先部署來處理最高和最低層的貨架——這些位置是最容易導致人類員工職業傷害的位置。這也讓自動化的意義,從單純的「替代人力」,轉向了更具建設性的「增強人力」。

SRT-H 在手術室中展現了「專家級的腦」,Vulcan 在倉庫中演化出「專家級的手」。但你發現了嗎?它們都還是「專家」,一個只會開刀,一個只會揀貨。雖然這種「專家型」設計能有效規模化、解決痛點並降低成本,但機器人的終極目標,是像人類一樣成為「通才」,讓單一機器人,能在人類環境中執行多種不同任務。

如何教一台機器人「舉一反三」?

你問,機器人能成為像我們一樣的「通才」嗎?過去不行,但現在,這個目標可能很快就會實現了。這正是 NVIDIA 的 GR00T 和 Google DeepMind 的 RT-X 等專案的核心目標。

過去,我們教機器人只會一個指令、一個動作。但現在,科學家們換了一種全新的教學思路:停止教機器人完整的「任務」,而是開始教它們基礎的「技能基元」(skill primitives),這就像是動作的模組。

-----廣告,請繼續往下閱讀-----

例如,有負責走路的「移動」(Locomotion) 基元,和負責抓取的「操作」(Manipulation) 基元。AI 模型會透過強化學習 (Reinforcement Learning) 等方法,學習如何組合這些「技能基元」來達成新目標。

舉個例子,當 AI 接收到「從冰箱拿一罐汽水給我」這個新任務時,它會自動將其拆解為一系列已知技能的組合:首先「移動」到冰箱前、接著「操作」抓住把手、拉開門、掃描罐子、抓住罐子、取出罐子。AI T 正在學會如何將這些單一的技能「融合」在一起。有了這樣的基礎後,就可以開始來大量訓練。

當多重宇宙的機器人合體練功:通用 AI 的誕生

好,既然要學,那就要練習。但這些機器人要去哪裡獲得足夠的練習機會?總不能直接去你家廚房實習吧。答案是:它們在數位世界裡練習

NVIDIA 的 Isaac Sim 等平台,能創造出照片級真實感、物理上精確的模擬環境,讓 AI 可以在一天之內,進行相當於數千小時的練習,獨自刷副本升級。這種從「模擬到現實」(sim-to-real)的訓練管線,正是讓訓練這些複雜的通用模型變得可行的關鍵。

-----廣告,請繼續往下閱讀-----

DeepMind 的 RT-X 計畫還發現了一個驚人的現象:用來自多種「不同類型」機器人的數據,去訓練一個單一的 AI 模型,會讓這個模型在「所有」機器人上表現得更好。這被稱為「正向轉移」(positive transfer)。當 RT-1-X 模型用混合數據訓練後,它在任何單一機器人上的成功率,比只用該機器人自身數據訓練的模型平均提高了 50%。

這就像是多重宇宙的自己各自練功後,經驗值合併,讓本體瞬間變強了。這意味著 AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。

AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。/ 圖片來源:shutterstock

不再是工程師,而是「父母」: AI 的新學習模式

這也導向了一個科幻的未來:或許未來可能存在一個中央「機器人大腦」,它可以下載到各種不同的身體裡,並即時適應新硬體。

這種學習方式,也從根本上改變了我們與機器人的互動模式。我們不再是逐行編寫程式碼的工程師,而是更像透過「示範」與「糾正」來教導孩子的父母。

NVIDIA 的 GR00T 模型,正是透過一個「數據金字塔」來進行訓練的:

  • 金字塔底層: 是大量的人類影片。
  • 金字塔中層: 是海量的模擬數據(即我們提過的「數位世界」練習)。
  • 金字塔頂層: 才是最珍貴、真實的機器人操作數據。

這種模式,大大降低了「教導」機器人新技能的門檻,讓機器人技術變得更容易規模化與客製化。

當機器人不再是「一個」物體,而是「任何」物體?

我們一路看到了機器人如何學會思考、觸摸,甚至舉一反三。但這一切,都建立在一個前提上:它們的物理形態是固定的。

但,如果連這個前提都可以被打破呢?這代表機器人的定義不再是固定的形態,而是可變的功能:它能改變身體來適應任何挑戰,不再是一台單一的機器,而是一個能根據任務隨選變化的物理有機體。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院特別具有代表性,該學院的仿生機器人實驗室(Bioinspired Robotics Group, BIRG)2007 年就打造模組化自重構機器人 Roombots。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院(EPFL)特別具有代表性。該學院的仿生機器人實驗室(BIRG)在 2007 年就已打造出模組化自重構機器人 Roombots。而 2023 年,來自 EPFL 的另一個實驗室——可重組機器人工程實驗室(RRL),更進一步推出了 Mori3,這是一套把摺紙藝術和電腦圖學巧妙融合的模組化機器人系統。

2023 年來自 EPFL 的另一個實驗室—可重組機器人工程實驗室(RRL)推出了 Mori3 © 2023 Christoph Belke, EPFL RRL

Mori3 的核心,是一個個小小的三角形模組。別看它簡單,每個模組都是一個獨立的機器人,有自己的電源、馬達、感測器和處理器,能獨立行動,也能和其他模組合作。最厲害的是,它的三條邊可以自由伸縮,讓這個小模組本身就具備「變形」能力。

當許多 Mori3 模組連接在一起時,就能像一群活的拼圖一樣,從平面展開,組合成各種三維結構。研究團隊將這種設計稱為「物理多邊形網格化」。在電腦圖學裡,我們熟悉的 3D 模型,其實就是由許多多邊形(通常是三角形)拼湊成的網格。Mori3 的創新之處,就是把這種純粹的數位抽象,真正搬到了現實世界,讓模組們化身成能活動的「實體網格」。

這代表什麼?團隊已經展示了三種能力:

  • 移動:他們用十個模組能組合成一個四足結構,它能從平坦的二維狀態站立起來,並開始行走。這不只是結構變形,而是真正的協調運動。
  • 操縱: 五個模組組合成一條機械臂,撿起物體,甚至透過末端模組的伸縮來擴大工作範圍。
  • 互動: 模組們能形成一個可隨時變形的三維曲面,即時追蹤使用者的手勢,把手的動作轉換成實體表面的起伏,等於做出了一個會「活」的觸控介面。

這些展示,不只是實驗室裡的炫技,而是真實證明了「物理多邊形網格化」的潛力:它不僅能構建靜態的結構,還能創造具備複雜動作的動態系統。而且,同一批模組就能在不同情境下切換角色。

想像一個地震後的救援場景:救援隊帶來的不是一台笨重的挖土機,而是一群這樣的模組。它們首先組合成一條長長的「蛇」形機器人,鑽入瓦礫縫隙;一旦進入開闊地後,再重組成一隻多足的「蜘蛛」,以便在不平的地面上穩定行走;發現受困者時,一部分模組分離出來形成「支架」撐住搖搖欲墜的橫樑,另一部分則組合成「夾爪」遞送飲水。這就是以任務為導向的自我演化。

這項技術的終極願景,正是科幻中的概念:可程式化物質(Programmable Matter),或稱「黏土電子學」(Claytronics)。想像一桶「東西」,你可以命令它變成任何你需要的工具:一支扳手、一張椅子,或是一座臨時的橋樑。

未來,我們只需設計一個通用的、可重構的「系統」,它就能即時創造出任務所需的特定機器人。這將複雜性從實體硬體轉移到了規劃重構的軟體上,是一個從硬體定義的世界,走向軟體定義的物理世界的轉變。

更重要的是,因為模組可以隨意分開與聚集,損壞時也只要替換掉部分零件就好。足以展現出未來機器人的適應性、自我修復與集體行為。當一群模組協作時,它就像一個超個體,如同蟻群築橋。至此,「機器」與「有機體」的定義,也將開始動搖。

從「實體探索」到「數位代理」

我們一路見證了機器人如何從單一的傀儡,演化為學會思考的外科醫生 (SRT-H)、學會觸摸的倉儲專家 (Vulcan)、學會舉一反三的通才 (GR00T),甚至是能自我重構成任何形態的「可程式化物質」(Mori3)。

但隨著機器人技術的飛速發展,一個全新的挑戰也隨之而來:在一個 AI 也能生成影像的時代,我們如何分辨「真實的突破」與「虛假的奇觀」?

舉一個近期的案例:2025 年 2 月,一則影片在網路上流傳,顯示一台人形機器人與兩名人類選手進行羽毛球比賽,並且輕鬆擊敗了人類。我的第一反應是懷疑:這太誇張了,一定是 AI 合成的影片吧?但,該怎麼驗證呢?答案是:用魔法打敗魔法。

在眾多 AI 工具中,Perplexity 特別擅長資料驗證。例如這則羽球影片的內容貼給 Perplexity,它馬上就告訴我:該影片已被查證為數位合成或剪輯。但它並未就此打住,而是進一步提供了「真正」在羽球場上有所突破的機器人—來自瑞士 ETH Zurich 團隊的 ANYmal-D

接著,選擇「研究模式」,就能深入了解 ANYmal-D 的詳細原理。原來,真正的羽球機器人根本不是「人形」,而是一台具備三自由度關節的「四足」機器人。

如果你想更深入了解,Perplexity 的「實驗室」功能,還能直接生成一份包含圖表、照片與引用來源的完整圖文報告。它不只介紹了 ANYmal-D 在羽球上的應用,更詳細介紹了瑞士聯邦理工學院發展四足機器人的完整歷史:為何選擇四足?如何精進硬體與感測器結構?以及除了運動領域外,四足機器人如何在關鍵的工業領域中真正創造價值。

AI 代理人:數位世界的新物種

從開刀、揀貨、打球,到虛擬練功,這些都是機器人正在學習「幫我們做」的事。但接下來,機器人將獲得更強的「探索」能力,幫我們做那些我們自己做不到的事。

這就像是,傳統網路瀏覽器與 Perplexity 的 Comet 瀏覽器之間的差別。Comet 瀏覽器擁有自主探索跟決策能力,它就像是數位世界裡的機器人,能成為我們的「代理人」(Agent)

它的核心功能,就是拆解過去需要我們手動完成的多步驟工作流,提供「專業代工」,並直接交付成果。

例如,你可以直接對它說:「閱讀這封會議郵件,檢查我的行事曆跟代辦事項,然後草擬一封回信。」或是直接下達一個複雜的指令:「幫我訂 Blue Origin 的太空旅遊座位,記得要來回票。」

接著,你只要兩手一攤,Perplexity 就會接管你的瀏覽器,分析需求、執行步驟、最後給你結果。你再也不用自己一步步手動搜尋,或是在不同網站上重複操作。

AI 代理人正在幫我們探索險惡的數位網路,而實體機器人,則在幫我們前往真實的物理絕境。

立即點擊專屬連結 https://perplexity.sng.link/A6awk/k74… 試用 Perplexity吧! 現在申辦台灣大哥大月付 599(以上) 方案,還可以獲得 1 年免費 Perplexity Pro plan 喔!(價值 新台幣6,750)

◆Perplexity 使用實驗室功能對 ANYmal-D 與團隊的全面分析 https://drive.google.com/file/d/1NM97…

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

0

17
4

文字

分享

0
17
4
為機器人換上「物理大腦」:一場終結AI數位囚禁的革命
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/03 ・5732字 ・閱讀時間約 11 分鐘

-----廣告,請繼續往下閱讀-----

本文與 研華科技 合作,泛科學企劃執行

我們都看過那種影片,對吧?網路上從不缺乏讓人驚嘆的機器人表演:數十台人形機器人像軍隊一樣整齊劃一地耍雜技 ,或是波士頓動力的機器狗,用一種幾乎違反物理定律的姿態後空翻、玩跑酷 。每一次,社群媒體總會掀起一陣「未來已來」、「人類要被取代了」的驚呼 。

但當你關掉螢幕,看看四周,一個巨大的落差感就來了:說好的機器人呢?為什麼大街上沒有他們的身影,為什麼我家連一件衣服都還沒人幫我摺?

這份存在於數位螢幕與物理現實之間的巨大鴻溝,源於一個根本性的矛盾:當代AI在數位世界裡聰明絕頂,卻在物理世界中笨拙不堪。它可以寫詩、可以畫畫,但它沒辦法為你端一杯水。

-----廣告,請繼續往下閱讀-----

這個矛盾,在我們常見的兩種機器人展示中體現得淋漓盡致。第一種,是動作精準、甚至會跳舞的類型,這本質上是一場由工程師預先寫好劇本的「戲」,機器人對它所處的世界一無所知 。第二種,則是嘗試執行日常任務(如開冰箱、拿蘋果)的類型,但其動作緩慢不穩,彷彿正在復健的病人 。

這兩種極端的對比,恰恰點出了機器人技術的真正瓶頸:它們的「大腦」還不夠強大,無法即時處理與學習真實世界的突發狀況 。

這也引出了本文試圖探索的核心問題:新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦,真的能終結機器人的「復健時代」,開啟一個它們能真正理解、並與我們共同生活的全新紀元嗎?

新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦 / 圖片來源:研華科技

為何我們看到的機器人,總像在演戲或復健?

那我們怎麼理解這個看似矛盾的現象?為什麼有些機器人靈活得像舞者,有些卻笨拙得像病人?答案,就藏在它們的「大腦」運作方式裡。

-----廣告,請繼續往下閱讀-----

那些動作極其精準、甚至會後空翻的機器人,秀的其實是卓越的硬體性能——關節、馬達、減速器的完美配合。但它的本質,是一場由工程師預先寫好劇本的舞台劇 。每一個角度、每一分力道,都是事先算好的,機器人本身並不知道自己為何要這麼做,它只是在「執行」指令,而不是在「理解」環境。

而另一種,那個開冰箱慢吞吞的機器人,雖然看起來笨,卻是在做一件革命性的事:它正在試圖由 AI 驅動,真正開始「理解」這個世界 。它在學習什麼是冰箱、什麼是蘋果、以及如何控制自己的力量才能順利拿起它。這個過程之所以緩慢,正是因為過去驅動它的「大腦」,也就是 AI 晶片的算力還不夠強,無法即時處理與學習現實世界中無窮的變數 。

這就像教一個小孩走路,你可以抱著他,幫他擺動雙腿,看起來走得又快又穩,但那不是他自己在走。真正的學習,是他自己搖搖晃晃、不斷跌倒、然後慢慢找到平衡的過程。過去的機器人,大多是前者;而我們真正期待的,是後者。

所以,問題的核心浮現了:我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好?

-----廣告,請繼續往下閱讀-----
我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好? / 圖片來源:shutterstock

機器人的大腦,為什麼不能放在雲端?

聽起來好像很合理,對吧?把所有複雜的運算都交給雲端最強大的伺服器,機器人本身只要負責接收指令就好了。但……真的嗎?

想像一下,如果你的大腦在雲端,你看到一個球朝你飛過來,視覺訊號要先上傳到雲端,雲端分析完,再把「快閃開」的指令傳回你的身體。這中間只要有零點幾秒的網路延遲,你大概就已經鼻青臉腫了。

現實世界的互動,需要的是「即時反應」。任何網路延遲,在物理世界中都可能造成無法彌補的失誤 。因此,運算必須在機器人本體上完成,這就是「邊緣 AI」(Edge AI)的核心概念 。而 NVIDIA  Jetson 平台,正是為了解決這種在裝置端進行高運算、又要兼顧低功耗的需求,而誕生的關鍵解決方案 。

NVIDIA Jetson 就像一個緊湊、節能卻效能強大的微型電腦,專為在各種裝置上運行 AI 任務設計 。回顧它的演進,早期的 Jetson 系統主要用於視覺辨識搭配AI推論,像是車牌辨識、工廠瑕疵檢測,或者在相機裡分辨貓狗,扮演著「眼睛」的角色,看得懂眼前的事物 。但隨著算力提升,NVIDIA Jetson 的角色也逐漸從單純的「眼睛」,演化為能夠控制手腳的「大腦」,開始驅動更複雜的自主機器,無論是地上跑的、天上飛的,都將NVIDIA Jetson 視為核心運算中樞 。

-----廣告,請繼續往下閱讀-----

但再強大的晶片,如果沒有能適應現場環境的「容器」,也無法真正落地。這正是研華(Advantech)的角色,我們將 NVIDIA Jetson 平台整合進各式工業級主機與邊緣運算設備,確保它能在高熱、灰塵、潮濕或震動的現場穩定運行,滿足從工廠到農場到礦場、從公車到貨車到貨輪等各種使用環境。換句話說,NVIDIA 提供「大腦」,而研華則是讓這顆大腦能在真實世界中呼吸的「生命支持系統」。

這個平台聽起來很工業、很遙遠,但它其實早就以一種你意想不到的方式,進入了我們的生活。

從Switch到雞蛋分揀員,NVIDIA Jetson如何悄悄改變世界?

如果我告訴你,第一代的任天堂Switch遊戲機與Jetson有相同血緣,你會不會很驚訝?它的核心處理器X1晶片,與Jetson TX1模組共享相同架構。這款遊戲機對高效能運算和低功耗的嚴苛要求,正好與 Jetson 的設計理念不謀而合 。

而在更專業的領域,研華透過 NVIDIA Jetson 更是解決了許多真實世界的難題 。例如

-----廣告,請繼續往下閱讀-----
  • 在北美,有客戶利用 AI 進行雞蛋品質檢測,研華的工業電腦搭載NVIDIA Jetson 模組與相機介面,能精準辨識並挑出髒污、雙黃蛋到血蛋 
  • 在日本,為避免鏟雪車在移動時發生意外,導入了環繞視覺系統,當 AI 偵測到周圍有人時便會立刻停止 ;
  • 在水資源珍貴的以色列,研華的邊緣運算平台搭載NVIDIA Jetson模組置入無人機內,24 小時在果園巡航,一旦發現成熟的果實就直接凌空採摘,實現了「無落果」的終極目標 。

這些應用,代表著 NVIDIA Jetson Orin™ 世代的成功,它讓「自動化」設備變得更聰明 。然而,隨著大型語言模型(LLM)的浪潮來襲,人們的期待也從「自動化」轉向了「自主化」 。我們希望機器人不僅能執行命令,更能理解、推理。

Orin世代的算力在執行人形機器人AI推論時的效能約為每秒5到10次的推論頻率,若要機器人更快速完成動作,需要更強大的算力。業界迫切需要一個更強大的大腦。這也引出了一個革命性的問題:AI到底該如何學會「動手」,而不只是「動口」?

革命性的一步:AI如何學會「動手」而不只是「動口」?

面對 Orin 世代的瓶頸,NVIDIA 給出的答案,不是溫和升級,而是一次徹底的世代跨越— NVIDIA Jetson Thor 。這款基於最新 Blackwell 架構的新模組,峰值性能是前代的 7.5 倍,記憶體也翻倍 。如此巨大的效能提升,目標只有一個:將過去只能在雲端資料中心運行的、以 Transformer 為基礎的大型 AI 模型,成功部署到終端的機器上 。

NVIDIA Jetson Thor 的誕生,將驅動機器人控制典範的根本轉變。這要從 AI 模型的演進說起:

-----廣告,請繼續往下閱讀-----
  1. 第一階段是 LLM(Large Language Model,大型語言模型):
    我們最熟悉的 ChatGPT 就屬此類,它接收文字、輸出文字,實現了流暢的人機對話 。
  2. 第二階段是 VLM(Vision-Language Model,視覺語言模型):
    AI 學會了看,可以上傳圖片,它能用文字描述所見之物,但輸出結果仍然是給人類看的自然語言 。
  3. 第三階段則是 VLA(Vision-Language-Action Model,視覺語言行動模型):
    這是革命性的一步。VLA 模型的輸出不再是文字,而是「行動指令(Action Token)」 。它能將視覺與語言的理解,直接轉化為控制機器人關節力矩、速度等物理行為的具體參數 。

這就是關鍵! 過去以NVIDIA Jetson Orin™作為大腦的機器人,僅能以有限的速度運行VLA模型。而由 VLA 模型驅動,讓 AI 能夠感知、理解並直接與物理世界互動的全新形態,正是「物理 AI」(Physical AI)的開端 。NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 。

NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 / 圖片來源:研華科技

其中,物理 AI 強調的 vision to action,就需要研華設計對應的硬體來實現;譬如視覺可能來自於一般相機、深度相機、紅外線相機甚至光達,你的系統就要有對應的介面來整合視覺;你也會需要控制介面去控制馬達伸長手臂或控制夾具拿取物品;你也要有 WIFI、4G 或 5G 來傳輸資料或和別的 AI 溝通,這些都需要具體化到一個系統上,這個系統的集大成就是機器人。

好,我們有了史上最強的大腦。但一個再聰明的大腦,也需要一副強韌的身體。而這副身體,為什麼非得是「人形」?這不是一種很沒效率的執念嗎?

為什麼機器人非得是「人形」?這不是一種低效的執念嗎?

這是我一直在思考的問題。為什麼業界的主流目標,是充滿挑戰的「人形」機器人?為何不設計成效率更高的輪式,或是功能更多元的章魚型態?

-----廣告,請繼續往下閱讀-----

答案,簡單到令人無法反駁:因為我們所處的世界,是徹底為人形生物所打造的。

從樓梯的階高、門把的設計,到桌椅的高度,無一不是為了適應人類的雙足、雙手與身高而存在 。對 AI 而言,採用人形的軀體,意味著它能用與我們最相似的視角與方式去感知和學習這個世界,進而最快地理解並融入人類環境 。這背後的邏輯是,與其讓 AI 去適應千奇百怪的非人形設計,不如讓它直接採用這個已經被數千年人類文明「驗證」過的最優解 。

這也區分了「通用型 AI 人形機器人」與「專用型 AI 工業自動化設備」的本質不同 。後者像高度特化的工具,產線上的機械手臂能高效重複鎖螺絲,但它無法處理安裝柔軟水管這種預設外的任務 。而通用型人形機器人的目標,是成為一個「多面手」,它能在廣泛學習後,理解物理世界的運作規律 。理論上,今天它在產線上組裝伺服器,明天就能在廚房裡學會煮菜 。

人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態 / 圖片來源:shutterstock

但要讓一個「多面手」真正活起來,光有骨架還不夠。它必須同時擁有強大的大腦平台與遍布全身的感知神經,才能理解並回應外在環境。人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態。但這些訊號若沒有通過一個穩定的「大腦平台」,就無法匯聚成有意義的行動。

這正是研華的角色:我們不僅把 NVIDIA Jetson Thor 這顆核心晶片包載在工業級電腦中,讓它成為能真正思考與反應的「完整大腦」,同時也提供神經系統的骨幹,將感測器、I/O 介面與通訊模組可靠地連結起來,把訊號傳導進大腦。你或許看不見研華的存在,但它實際上遍布在機器人全身,像隱藏在皮膚之下的神經網絡,讓整個身體真正活過來。

但有了大腦、有了身體,接下來的挑戰是「教育」。你要怎麼教一個物理 AI?總不能讓它在現實世界裡一直摔跤,把一台幾百萬的機器人摔壞吧?

打造一個「精神時光屋」,AI的學習速度能有多快?

這個問題非常關鍵。大型語言模型可以閱讀網際網路上浩瀚的文本資料,但物理世界中用於訓練的互動資料卻極其稀缺,而且在現實中反覆試錯的成本與風險實在太高 。

答案,就在虛擬世界之中。

NVIDIA Isaac Sim™等模擬平台,為這個問題提供了完美的解決方案 。它能創造出一個物理規則高度擬真的數位孿生(Digital Twin)世界,讓 AI 在其中進行訓練 。

這就像是為機器人打造了一個「精神時光屋」 。它可以在一天之內,經歷相當於現實世界千百日的學習與演練,從而在絕對安全的環境中,窮盡各種可能性,深刻領悟物理世界的定律 。透過這種「模擬-訓練-推論」的 3 Computers 閉環,Physical AI (物理AI) 的學習曲線得以指數級加速 。

我原本以為模擬只是為了節省成本,但後來發現,它的意義遠不止於此。它是在為 AI 建立一種關於物理世界的「直覺」。這種直覺,是在現實世界中難以透過有限次的試錯來建立的。

所以你看,這趟從 Switch 到人形機器人的旅程,一幅清晰的未來藍圖已經浮現了。實現物理 AI 的三大支柱已然齊備:一個劃時代的「AI 大腦」(NVIDIA Jetson Thor)、讓核心延展為「完整大腦與神經系統」的工業級骨幹(由研華 Advantech 提供),以及一個不可或缺的「教育環境」(NVIDIA Isaac Sim 模擬平台) 。

結語

我們拆解了那些酷炫機器人影片背後的真相,看見了從「自動化」走向「自主化」的巨大技術鴻溝,也見證了「物理 AI」時代的三大支柱——大腦、身軀、與教育——如何逐一到位 。

專家預測,未來 3 到 5 年內,人形機器人領域將迎來一場顯著的革命 。過去我們只能在科幻電影中想像的場景,如今正以前所未有的速度成為現實 。

這不再只是一個關於效率和生產力的問題。當一台機器,能夠觀察我們的世界,理解我們的語言,並開始以物理實體的方式與我們互動,這將從根本上改變我們與科技的關係。

所以,最後我想留給你的思想實驗是:當一個「物理 AI」真的走進你的生活,它不只是個工具,而是一個能學習、能適應、能與你共同存在於同一個空間的「非人智慧體」,你最先感受到的,會是興奮、是便利,還是……一絲不安?

這個問題,不再是「我們能否做到」,而是「當它發生時,我們準備好了嗎?」

研華已經整裝待發,現在,我們與您一起推動下一代物理 AI 與智慧設備的誕生。
https://bit.ly/4n78dR4

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

0

4
0

文字

分享

0
4
0
露兜樹象鼻蟲的身世之考察——分類學家偵探事件簿(四)
蕭昀_96
・2023/12/25 ・3950字 ・閱讀時間約 8 分鐘

一般大眾或甚至其他領域生物學家們,對於基礎生物分類學家的刻板印象,無非是常常在顯微鏡下進行形態解剖比較來鑑定物種、描述並發表新物種,或者常常東跑西跑去採集標本,頂多是抽取遺傳物質進行 DNA 分析。然而一位稱職的分類學家,為了搞清楚物種學名的分類地位,將整個命名系統修訂成一個穩定並適合大家使用的狀態,往往需要做大量的歷史文獻,造訪各大博物館並進行模式標本考察,其中的繁瑣和複雜程度,往往令人出乎意料。

再讓我們複習一次模式標本是什麼和其重要性?

如果有閱覽過這系列的文章便會很清楚的知道,模式標本是物種發表時的實體存證,是學者對分類地位有疑慮時,用以判別的客觀證據。每個物種都有其模式標本,而每個屬也有其模式物種,是判定該屬別的決定性物種,模式種和模式標本是進行物種與屬別層級的基礎分類研究時,不可或缺的重要資訊。

這個故事的主角是一類來自南亞和東南亞的露兜樹象鼻蟲,本文將講述其模式標本和背後歷史脈絡的考察,以及我們對於分類處理過程的案例分享。

分布於南亞、東南亞的露兜樹象鼻蟲和研究緣起

露兜樹科(Pandanus)為分布於東半球的亞熱帶及熱帶地區的灌木或喬木植物,其中林投(Pandanus tectorius)具有抗風、耐鹽的特性,是常見的海岸防風定砂植物,而俗稱斑蘭葉(pandan)的七葉蘭(Pandanus amaryllifolius),則是東南亞常見的料理與糕點製作材料,而南亞和東南亞的露兜樹上棲息著一群黑色扁平的小型象鼻蟲——露兜樹象鼻蟲(Lyterius)。

-----廣告,請繼續往下閱讀-----
露兜樹是東半球的亞熱帶及熱帶地區的灌木或喬木植物。(攝/B.navez from Wikipedia)
小小扁扁的露兜樹象鼻蟲(Lyterius)是與露兜樹有伴生關係的特別物種。(圖/論文原文)

而故事的緣起可追溯到 2022 年,當時筆者正在澳洲進行博士論文題目「澳洲蘇鐵授粉象鼻蟲的多樣性與演化」的研究,我們意外地發現澳洲的蘇鐵授粉象鼻蟲與東南亞產的露兜樹象鼻蟲親緣關係接近,因此我們便想進一步探究本類群的分類。在我們初步搜索模式標本時,我們驚奇地發現德國象鼻蟲學者延斯・普雷納博士 Dr. Jens Prena 似乎曾經有研究過這類象鼻蟲,出於好奇,我們聯繫了普雷納博士,進而開啟了本類群錯綜複雜的分類歷史考察之旅。

露兜樹象鼻蟲分類研究的現存問題

首先露兜樹象鼻蟲的分類問題分成兩個面向,一個是屬別層級的,而另一個是物種層級的。屬別層級的問題比較簡單,我們發現露兜樹象鼻蟲屬有三個相關的屬別,分別為 Lyterius Schönherr, 1844、Barisoma Motschulsky, 1863 和 Plaxes Pascoe, 1885,根據牠們形態的相似性和地理分布的重疊,我們認為牠們應該被合併成單一屬別,也就是說只要我們確認三個屬別的模式種都是屬於同一個屬別後,那自然我們就能依照優先權原則,把 1863 年發表的 Barisoma 和 1885 年發表的 Plaxes 處理為最早發表的 Lyterius 的同物異名。

但是!分類學研究最困難的就是這個但是!

我們雖然追蹤到 Barisoma Plaxes 的模式種和其模式標本,但是 Lyterius 的模式種問題,卻將這個研究的難度拉向了另一個層面——也就是物種層級的問題。

模式標本來源和流向超級複雜的 Lyterius

Lyterius 這個屬別是由瑞典昆蟲學家卡爾・約翰・舍恩赫爾(Carl Johan Schönherr)於 1844 年所提出,並以 Rhynchaenus musculus Fabricius, 1802,這個 1802 年由丹麥昆蟲學家約翰・克里斯蒂安・法布里丘斯(Johan Christian Fabricius )所發表的種類作為模式物種。他的合作對象瑞典昆蟲學家卡爾・亨利克・博赫曼(Carl Henrik Boheman)也在同一本書中使用了 Lyterius musculus (Fabricius, 1802) 這個學名組合,同時他將德國昆蟲學家弗里德里希・韋伯(Friedrich Weber)在 1802 年所描述的 Curculio abdominalis Weber, 1801 也拉進這個屬別,學名組合變成 Lyterius abdominalis (Weber, 1801) ,並且描述一個菲律賓的新物種 Lyterius instabilis Boheman in Schönherr, 1844 。這其中最為複雜難解的,便是 Lyterius musculus (Fabricius, 1802) 和 Lyterius abdominalis (Weber, 1801) 之間的關係了,因為這兩個物種的模式標本來源,都源自於達戈貝爾特・達爾多夫 Dagobert Karl von Daldorff 這位在俄羅斯出生,擁有德裔血統的丹麥博物學家,在 18 世紀末葉任職丹麥東印度公司時,於 1795 年在蘇門答臘的一次採集。

-----廣告,請繼續往下閱讀-----
除了我們常常聽到的荷蘭、英國東印度公司,丹麥也曾經創立了東印度公司。(攝/Wikipedia)

根據我們對於 19 世紀初期的歐洲甲蟲分類歷史文獻的爬梳,達爾多夫在蘇門答臘的標本被帶回歐洲後,應該至少被他贈與或交換給五位學者或機構,而這五位學者就包含剛剛提到的德國昆蟲學家弗里德里希・韋伯(Friedrich Weber),以及丹麥昆蟲學家約翰・克里斯蒂安・法布里丘斯(Johan Christian Fabricius),這兩位顯然同時對這批標本進行分類學研究。

令人存疑的 Lyterius abdominalisLyterius musculus

因此第一個疑點就是,韋伯和法布里丘斯分別在 1801 年和 1802 年用達爾多夫所採集的同一批蘇門答臘象鼻蟲標本,發表了後來在 1844 年被博赫曼放在同一個屬別的物種 Lyterius abdominalisLyterius musculus,這讓人很難不懷疑,這兩個名字會不會根本就是同一個物種,這在當年資訊不流通、分類研究還很粗淺的年代,是非常容易發生的事情。

而支持這樣想法的關鍵則有二,首先德國昆蟲學家約翰・卡爾・威廉・伊利格(Johann Karl Wilhelm Illiger)其實在 1805 年的著作中,就已經提出這兩個物種是同一個物種的論點了,然而這項分類處理卻被博赫曼在 1844 年的著作中,不明地忽略了。雖然博赫曼不小心遺漏了伊利格的分類處理,他卻也在看過兩種的模式標本後,在他那 1844 年的著作中,提出了兩個物種只不過是同一個物種的雄蟲和雌蟲的猜想,然而因為他手邊就只有兩隻標本,一隻是雄的 Lyterius abdominalis ,一隻是雌的 Lyterius musculus ,因此他無法下這個決定情有可原,而我們如今已經知道露兜樹象鼻蟲有很明顯的雌雄二形性,雄蟲的口喙比較短,且足部的前腳腿節有明顯的突起,博赫曼的猜想不證自明。

總而言之,從上述的歷史文獻爬梳,我們可以從

-----廣告,請繼續往下閱讀-----
  1. 韋伯和法布里丘斯研究的都是同一批蘇門答臘採集的標本
  2. 同時代的伊利格和後來的博赫曼都直接或間接的認為 Lyterius abdominalisLyterius musculus 是同一個物種

來推斷,這兩個種類很有可能是同一個種類!

瑞典昆蟲學家卡爾・亨利克・博赫曼。(攝/Wikipedia)

找不到模式標本啊!

在爬梳大量文獻後,我們同時也造訪歐陸各大標本蒐藏去尋找這些物種的模式標本下落。我們很幸運的在德國基爾的動物學博物館找到兩隻 Lyterius musculus 的總/群模式標本。然而,在尋找 Lyterius abdominalis 模式標本的過程中卻碰了壁,不管是文獻還是實際探訪,幾乎都找不到韋伯收藏的下落,韋伯所發表的模式標本有極大的可能已經遺失了,那要怎麼辦呢?

分類學家的決策

雖然沒辦法找到 Lyterius abdominalis 的模式標本,然而我們從以上的間接證據,可以合理相信 Lyterius abdominalisLyterius musculus 就是同一個物種。為了最適當的處理分類議題,穩定整個分類命名系統。我們使用了一個技術性的分類學處理,首先我們指定了 Lyterius musculus 的選模式標本,並且我們將「這一個」標本,再次的指定為 Lyterius abdominalis 的新模式標本,這個時候,這兩個學名便產生了動物命名法規上所謂的「客觀同物異名(objective synonym)」關係,相較於分類學家自行主觀認定的同物異名(主觀同物異名 subjective synonym ),客觀同物異名指的是用同一個標本發表不同學名的狀況,這樣這兩個名字無庸置疑的是同物異名關係,只有最早被發表的名字有優先權,因此我們的 Lyterius abdominalis (Weber, 1801) 獲得了優先被使用的地位,也成為露兜樹象鼻蟲屬的模式種。經由這一波操作,我們確立了 Lyterius 的模式和包含的物種,也因此我們終於能進一步處理剛剛提到的 BarisomaPlaxes 的同物異名,最後我們可以大聲的說:露兜樹象鼻蟲屬的學名是 Lyterius Schönherr, 1844 !

番外篇的 Plaxes 模式標本調查

另外一方面,我們在調查 Plaxes 的模式標本時,也發現到其模式種 Plaxes impar Pascoe, 1885 的總/群模式標本散落在英國倫敦自然史博物館、德國柏林自然史博物館、德國德勒斯登森肯堡博物館、義大利熱拿亞自然史博物館、澳洲國立昆蟲館,幾乎涵蓋了半個地球。這些標本可以分為來自婆羅洲砂拉越和蘇門答臘的標本,採自砂拉越的標本無疑是一個獨立的物種,我們也指定砂拉越的總/群模式標本為本種選模式標本。而來自蘇門答臘的標本,無獨有偶地都和 Lyterius abdominalis 是同一個物種,顯然這個物種在蘇門答臘當地是個常見的物種,這又再次加強我們上面提到的,達爾多夫所採集的同一批蘇門答臘象鼻蟲標本應該就只有一種露兜樹象鼻蟲的推測。

-----廣告,請繼續往下閱讀-----

這個研究重新梳理了露兜樹象鼻蟲的分類歷史並考察了歷史文獻和模式標本,最終作出了適宜的分類學處理,為亞洲地區的象鼻蟲研究推進了一步。

  • 本論文日前已經線上刊載於《動物分類群 Zootaxa 》
  • 此文響應 PanSci 「自己的研究自己分享」,以增進眾人對基礎科學研究的了解。

參考資料

  • Prena, J., Hsiao, Y., Oberprieler, R.G. (2023) New combinations and synonymies in the weevil genus Lyterius Schönherr (Coleoptera, Curculionidae), with a conspectus of historical works on Daldorff’s Sumatran beetles. Zootaxa 5380(1): 26-36. https://doi.org/10.11646/zootaxa.5380.1.2
-----廣告,請繼續往下閱讀-----
蕭昀_96
22 篇文章 ・ 17 位粉絲
澳洲國立大學生物學研究院博士,在澳洲聯邦科學與工業研究組織國立昆蟲標本館完成博士研究,目前是國立臺灣大學生態學與演化生物學研究所博士後研究員,曾任科博館昆蟲學組蒐藏助理。研究興趣為鞘翅目(甲蟲)系統分類學和古昆蟲學,博士研究主題聚焦在澳洲蘇鐵授粉象鼻蟲的系統分類及演化生物學,其餘研究題目包括菊虎科(Cantharidae)、長扁朽木蟲科(Synchroidae)、擬步總科(Tenebrionoidea)等,不時發現命名新物種,研究論文發表散見於國內外學術期刊 。