0

0
0

文字

分享

0
0
0

Eugene Goostman 程式真的通過了圖靈測試嗎?

程式人雜誌
・2014/06/11 ・2966字 ・閱讀時間約 6 分鐘 ・SR值 572 ・九年級

-----廣告,請繼續往下閱讀-----

SN7TvUG

前言

2014 年 6 月 9 日,我看到 inside 網站中有人發布了一個訊息 「電腦首度通過圖靈測試(36kr.com)」。 我的直覺反應是,這件事情勢必有假,於是一路追了下去。

Inside 的訊息其實是轉貼自 36氪這個來自中國的網站, 36氪網站的文章標是 「计算机首次通过图灵测试」

不仔細看文章的人,很可能會被誤導,認為電腦已經可以成功得欺騙人類,讓人以為他是一個真人,而且比率達到和真人一樣的水準,也就是「人類已經無法正確區分文字交談的對象到底是電腦還是人類了」。

但是、這樣的想法是錯的,文章中所說的 Eugene Goostman 這個軟體其實並沒有達到「完全能欺騙人類」的水準,因為他們所說的圖靈測試,和我所認知的圖靈測試,根本就是不同的東西。

-----廣告,請繼續往下閱讀-----

圖靈測試是甚麼?

36氪文章中所說的 「图灵测试」 ,其實有連結到百度百科。百度百科裏對圖靈測試的描述如下:

图灵测试是测试人在与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。问过一些问题后,如果被测试者超过30%的答复不能使测试人确认出哪个是人、哪个是机器的回答,那么这台机器就通过了测试,并被认为具有人类智能。

但是、我所認知的圖靈測試,並不是採用 30% 誤判率為基準的,而是應該達到「和人類被誤判為電腦」一樣的水準。換句話說,假如程式偽裝的和真人一樣好的話,那麼應該要符合下列的表格要求。

判斷者的決定 交談對象為人類 交談對象為電腦程式
判斷為人 比率為 P (正確判斷) 比率大於或等於為 P (欺騙成功)
判斷為電腦 比率為 1-P (誤判人為電腦) 比率小於或等於為 1-P (欺騙失敗)

因此、對於上述新聞中所說的,「计算机首次通过图灵测试」 這件事情,其實是採用 30% 的欺騙成功率,這是我們認為該宣稱有問題的關鍵原因。

但是、為甚麼測試單位「英國雷丁大學」要採用 30% 做為圖靈測試是否通過的標準呢?我想原因應該來自於「圖靈」本人在那篇名為 「COMPUTING MACHINERY AND INTELLIGENCE 」的文章中所提到的一個預估,原文如下:

-----廣告,請繼續往下閱讀-----

I believe that in about fifty years’ time it will be possible to programme computers, with a storage capacity of about 10^9, to make them play the imitation game so well that an average interrogator will not have more than 70 percent chance of making the right identification after five minutes of questioning. … I believe that at the end of the century the use of words and general educated opinion will have altered so much that one will be able to speak of machines thinking without expecting to be contradicted.

在上文當中「圖靈」預估 50 年後,一個一般的詢問者經過5分鐘的詢問之後,只有不到70%的機率能正確指認被詢問者是電腦還是人。於是「英國雷丁大學」就把這個預估當成圖靈測試的基準了。

但是、這只是圖靈的一個預估,並不代表圖靈測試就應該定為成功的欺騙過 30% 的人啊! (而且這也不是學術界對圖靈測試的一個共識)。

測試單位的英文公告

36氪的 「计算机首次通过图灵测试」 一文中指出了訊息來源為「英國雷丁大學的新聞稿」,連結如下:

TURING TEST SUCCESS MARKS MILESTONE IN COMPUTING HISTORY

-----廣告,請繼續往下閱讀-----

該新聞稿提到 Eugene Goostman 這個程式通過圖靈測試的語句如下:

The 65 year-old iconic Turing Test was passed for the very first time by supercomputer Eugene Goostman during Turing Test 2014 held at the renowned Royal Society in London on Saturday.

但新聞稿的後面有寫出測試方法的描述:

  1. Simultaneous tests as specified by Alan Turing
  2. Each judge was involved in five parallel tests – so 10 conversations
  3. 30 judges took part
  4. In total 300 conversations
  5. In each five minutes a judge was communicating with both a human and a machine
  6. Each of the five machines took part in 30 tests
  7. To ensure accuracy of results, Test was independently adjudicated by Professor John Barnden, University of Birmingham, formerly head of British AI Society

我對這個測試方法的解讀如下:

  1. 圖靈測試:電腦程式是否能成功的透過文字交談欺騙人類,偽裝自己是個人。
  2. 每個「判斷者」都會分別判斷五組「人+電腦」的配對,也就是總共進行 10 次的對話。
  3. 總共有 30 位判斷者參與。
  4. 總共有 30*10=300 場的交談。
  5. 在五分鐘內,「判斷者」會與一組「人和機器」分別交談。
  6. 五組「電腦程式」都會與 30 位「判斷者」談過一次。
  7. 為了確認「判斷者」判斷結果為正確或錯誤, John Barnden 教授會監控並確認結果。

問題在哪裡?

我認為「英國雷丁大學發布的新聞稿」用詞有欠妥當,主要是因為下列語句實在是太過強烈:

-----廣告,請繼續往下閱讀-----

The 65 year-old iconic Turing Test was passed for the very first time by supercomputer Eugene Goostman during Turing Test 2014 held at the renowned Royal Society in London on Saturday.

雖然新聞稿後面有交代 Eugene Goostman 程式成功的欺騙過 33% 的判斷者,但是沒有看完全文的人還是很容易被誤導的。

If a computer is mistaken for a human more than 30% of the time during a series of five minute keyboard conversations it passes the test. No computer has ever achieved this, until now. Eugene managed to convince 33% of the human judges (30 judges took part – see more details below) that it was human.

而 36氪網站直接把 「计算机首次通过图灵测试」 拿來當標題,則是進一步的誤導了大家, 雖然 36氪有超連結指向 百度的圖靈測試定義 ,但是這個定義顯然與一般人的認知不同,應該要強調一下才對,不應該企圖用聳動性的標題吸引目光。

最後、 inside 的轉載 「電腦首度通過圖靈測試(36kr.com)」 這篇,雖然有指出來源的 36氪網站文章,不過我想轉貼的人或許沒有仔細想過到底文章中的「通過圖靈測試」到底是甚麼意義,也沒想過這樣可能會誤導讀者,造成錯誤科學訊息的傳播問題。

以前的程式表現如何?

事實上、能夠成功欺騙人類,讓某些人認為對方是真人的交談程式,在人工智慧的歷史上很早就出現過了。

-----廣告,請繼續往下閱讀-----

遠在 1966 年時,Joseph Weizenbaum 就曾經創造出一個稱為 ELIZA 的程式,該程式採用了非常簡單的字串比對方法,結果竟然讓不少交談者認為 ELIZA 是個真人,以下是維基百科對 Eliza 程式的描述網址:

http://en.wikipedia.org/wiki/ELIZA

在 2013 年 8 月號的程式人雜誌當中,筆者也在文章中展示了一個自己寫的「中文版 Eliza 聊天程式」,有興趣的朋友也可以閱讀該文章順便瞭解這種程式是怎麼做的。

JavaScript (8) – 中文版 Eliza 聊天程式

-----廣告,請繼續往下閱讀-----

另外、在 2011 年時有一個稱為 Cleverbot 的程式 曾經創造過成功欺騙 60% 判斷者的紀錄,這個紀錄比這次比賽第一名的 Eugene Goostman 程式還要高。因此我們真的很難用「電腦首度通過圖靈測試」這樣的語句來描述這次比賽的結果,甚至這次比賽到底是否有創了什麼記錄都是很難確定的。

所以、我真的覺得這樣的訊息是過於聳動了,因此特別寫了這篇文章來提醒大家,避免很多人會被這些訊息誤導。

我的感想

從這個案例中,我們可以看到在網路訊息發達的今天,要能夠不被誤導,恐怕必須要有很強的判斷力與追根究柢的精神,但是在這個訊息多如牛毛的世界中,錯誤與聳動的訊息往往傳播的特別快,這恐怕是網路世界亟待解決的問題之一啊!

最後、我上 g0v 的新聞小幫手 去檢舉了這個新聞,希望能讓誤導的情況稍微降低一下,檢舉網址如下:

-----廣告,請繼續往下閱讀-----

http://newshelper.g0v.tw/index/log/1819

參考文獻

轉載自程式人雜誌

-----廣告,請繼續往下閱讀-----
文章難易度
程式人雜誌
9 篇文章 ・ 1 位粉絲
程式人雜誌是一個結合「開放原始碼與公益捐款活動」的雜誌,簡稱「開放公益雜誌」。開放公益雜誌本著「讀書做善事、寫書做公益」的精神,我們非常歡迎程式人認養專欄、或者捐出您的網誌。

0

2
1

文字

分享

0
2
1
「融合蛋白」如何全方位圍剿狡猾癌細胞
鳥苷三磷酸 (PanSci Promo)_96
・2025/11/07 ・5944字 ・閱讀時間約 12 分鐘

本文與 TRPMA 台灣研發型生技新藥發展協會合作,泛科學企劃執行

我們知道癌症是台灣人健康的頭號公敵。 為此,我們花了很多時間介紹最新、最有效的抗癌方法之一:免疫療法

免疫療法中最重要的技術就是抗體藥物。科學家會人工製造一批抗體去標記癌細胞。它們就像戰場上的偵察無人機,能精準鎖定你體內的敵人——癌細胞,為它們打上標記,然後引導你的免疫系統展開攻擊。

這跟化療、放射線治療那種閉著眼睛拿機槍亂掃不同。免疫療法是重新叫醒你的免疫系統,為身體「上buff (增益) 」來抗癌,副作用較低,因此備受好評。

-----廣告,請繼續往下閱讀-----

但尷尬的是,經過幾年的臨床考驗,科學家發現:光靠抗體對抗癌症,竟然已經不夠用了。

事情是這樣的,臨床上醫生與科學家逐漸發現:這個抗體標記,不是容易損壞,就是癌細胞同時設有多個陷阱關卡,只靠叫醒免疫細胞,還是難以發揮戰力。

但好消息是,我們的生技工程也大幅進步了。科學家開始思考:如果這台偵察無人機只有「標記」這一招不夠用,為什麼不幫它升級,讓它多學幾招呢?

這個能讓免疫藥物(偵察無人機)大進化的訓練器,就是今天的主角—融合蛋白(fusion protein)

-----廣告,請繼續往下閱讀-----
融合蛋白(fusion protein)/ 圖片來源:wikipedia

融合蛋白是什麼?

免疫療法遇到的問題,我們可以這樣理解:想像你的身體是一座國家,病毒、細菌、腫瘤就是入侵者;而抗體,就是我們派出的「偵察無人機」。

當我們透過注射放出這支無人機群進到體內,它能迅速辨識敵人、緊抓不放,並呼叫其他免疫單位(友軍)一同解決威脅。過去 20 年,最強的偵查機型叫做「單株抗體」。1998年,生技公司基因泰克(Genentech)推出的藥物赫賽汀(Herceptin),就是一款針對 HER2 蛋白的單株抗體,目標是治療乳癌。

這支無人機群為什麼能對抗癌症?這要歸功於它「Y」字形的小小抗體分子,構造看似簡單,卻蘊藏巧思:

  • 「Y」 字形上面的兩隻「叉叉」是敵人偵測器,能找到敵人身上的抗原特徵,並黏上去,稱為抗體結合區「Fab 區域」。
  • 「Y」 字形的「尾巴」就是我們說的「標籤」,它能通知免疫系統啟動攻擊,稱為結晶區域片段「Fc 區域」。具體來說,當免疫細胞在體內巡邏,免疫細胞上的 Fc 受體 (FcR) 會和 Fc區域結合,進而認出病原體或感染細胞,接著展開清除。

更厲害的是,這個 Fc 區域標籤還能加裝不同功能。一般來說,人體內多餘的分子,會被定期清除。例如,細胞內會有溶酶體不斷分解多餘的物質,或是血液經過肝臟時會被代謝、分解。那麼,人造抗體對身體來說,屬於外來的東西,自然也會被清除。

-----廣告,請繼續往下閱讀-----

而 Fc區域會與細胞內體上的Fc受體結合,告訴細胞「別分解我」的訊號,阻止溶酶體的作用。又或是單純把標籤做的超大,例如接上一段長長的蛋白質,或是聚乙二醇鏈,讓整個抗體分子的大小,大於腎臟過濾孔的大小,難以被腎臟過濾,進而延長抗體在體內的存活時間。

偵測器(Fab)加上標籤(Fc)的結構,使抗體成為最早、也最成功的「天然設計藥物」。然而,當抗體在臨床上逐漸普及,一個又一個的問題開始浮現。抗體的強項在於「精準鎖定」,但這同時也是它的限制。

「Y」 字形上面的兩隻「叉叉」是敵人偵測器,能找到敵人身上的抗原特徵,並黏上去,稱為抗體結合區「Fab 區域」/ 圖片來源:shutterstock

第一個問題:抗體只能打「魔王」,無法毀掉「魔窟」。 

抗體一定要有一個明確的「標的物」才能發揮作用。這讓它在針對「腫瘤」或「癌細胞本身」時非常有效,因為敵人身上有明顯標記。但癌細胞的形成與惡化,是細胞在「生長、分裂、死亡、免疫逃脫」這些訊號通路上被長期誤導的結果。抗體雖然勇猛,卻只能針對已經帶有特定分子的癌細胞魔王,無法摧毀那個孕育魔王的系統魔窟。這時,我們真正欠缺的是能「調整」、「模擬」或「干擾」這些錯誤訊號的藥物。

-----廣告,請繼續往下閱讀-----

第二個問題:開發產線的限制。

抗體的開發,得經過複雜的細胞培養與純化程序。每次改變結構或目標,幾乎都要重新開發整個系統。這就像你無法要求一台偵測紅外線的無人機,明天立刻改去偵測核輻射。高昂的成本與漫長的開發時間,讓新產線難以靈活創新。

為了讓免疫藥物能走向多功能與容易快速製造、測試的道路,科學家急需一個更工業化的藥物設計方式。雖然我們追求的是工業化的設計,巧合的是,真正的突破靈感,仍然來自大自然。

在自然界中,基因有時會彼此「融合」成全新的組合,讓生物獲得額外功能。例如細菌,它們常仰賴一連串的酶來完成代謝,中間產物要在細胞裡來回傳遞。但後來,其中幾個酶的基因彼此融合,而且不只是基因層級的合併,產出的酶本身也變成同一條長長的蛋白質。

-----廣告,請繼續往下閱讀-----

結果,反應效率大幅提升。因為中間產物不必再「跑出去找下一個酶」,而是直接在同一條生產線上完成。對細菌來說,能更快處理養分、用更少能量維持生存,自然形成適應上的優勢,這樣的融合基因也就被演化保留下來。

科學家從中得到關鍵啟發:如果我們也能把兩種有用的蛋白質,「人工融合」在一起,是否就能創造出更強大的新分子?於是,融合蛋白(fusion protein)就出現了。

以假亂真:融合蛋白的HIV反制戰

融合蛋白的概念其實很直覺:把兩種以上、功能不同的蛋白質,用基因工程的方式「接起來」,讓它們成為同一個分子。 

1990 年,融合蛋白 CD4 免疫黏附素(CD4 immunoadhesin)誕生。這項設計,是為了對付令人類聞風喪膽的 HIV 病毒。

-----廣告,請繼續往下閱讀-----

我們知道 T 細胞是人體中一種非常重要的白血球。在這些 T 細胞中,大約有六到七成表面帶有一個叫做「CD4」的輔助受體。CD4 會和另一個受體 TCR 一起合作,幫助 T 細胞辨識其他細胞表面的抗原片段,等於是 T 細胞用來辨認壞人的「探測器」。表面擁有 CD4 受體的淋巴球,就稱為 CD4 淋巴球。

麻煩的來了。 HIV 病毒反將一軍,竟然把 T 細胞的 CD4 探測器,當成了自己辨識獵物的「標記」。沒錯,對 HIV 病毒來說,免疫細胞就是它的獵物。HIV 的表面有一種叫做 gp120 的蛋白,會主動去抓住 T 細胞上的 CD4 受體。

一旦成功結合,就會啟動一連串反應,讓病毒外殼與細胞膜融合。HIV 進入細胞內後會不斷複製並破壞免疫細胞,導致免疫系統逐漸崩潰。

為了逆轉這場悲劇,融合蛋白 CD4 免疫黏附素登場了。它的結構跟抗體類似,由由兩個不同段落所組成:一端是 CD4 假受體,另一端則是剛才提到、抗體上常見的 Fc 區域。當 CD4 免疫黏附素進入體內,它表面的 CD4 假受體會主動和 HIV 的 gp120 結合。

-----廣告,請繼續往下閱讀-----

厲害了吧。 病毒以為自己抓到了目標細胞,其實只是被騙去抓了一個假的 CD4。這樣 gp120 抓不到 CD4 淋巴球上的真 CD4,自然就無法傷害身體。

而另一端的 Fc 區域則有兩個重要作用:一是延長融合蛋白在體內的存活時間;二是理論上能掛上「這裡有敵人!」的標籤,這種機制稱為抗體依賴性細胞毒殺(ADCC)或免疫吞噬作用(ADCP)。當免疫細胞的 Fc 受體與 Fc 區域結合,就能促使免疫細胞清除被黏住的病毒顆粒。

不過,這裡有個關鍵細節。

在實際設計中,CD4免疫黏附素的 Fc 片段通常會關閉「吸引免疫細胞」的這個技能。原因是:HIV 專門攻擊的就是免疫細胞本身,許多病毒甚至已經藏在 CD4 細胞裡。若 Fc 區域過於活躍,反而可能引發強烈的發炎反應,甚至讓免疫系統錯把帶有病毒碎片的健康細胞也一併攻擊,這樣副作用太大。因此,CD4 免疫黏附素的 Fc 區域會加入特定突變,讓它只保留延長藥物壽命的功能,而不會與淋巴球的 Fc 受體結合,以避免誘發免疫反應。

從 DNA 藍圖到生物積木:融合蛋白的設計巧思

融合蛋白雖然潛力強大,但要製造出來可一點都不簡單。它並不是用膠水把兩段蛋白質黏在一起就好。「融合」這件事,得從最根本的設計圖,也就是 DNA 序列就開始規劃。

我們體內的大部分蛋白質,都是細胞照著 DNA 上的指令一步步合成的。所以,如果科學家想把蛋白 A 和蛋白 B 接在一起,就得先把這兩段基因找出來,然後再「拼」成一段新的 DNA。

不過,如果你只是單純把兩段基因硬接起來,那失敗就是必然的。因為兩個蛋白會互相「打架」,導致摺疊錯亂、功能全毀。

這時就需要一個小幫手:連接子(linker)。它的作用就像中間的彈性膠帶,讓兩邊的蛋白質能自由轉動、互不干擾。最常見的設計,是用多個甘胺酸(G)和絲胺酸(S)組成的柔性小蛋白鏈。

設計好這段 DNA 之後,就能把它放進細胞裡,讓細胞幫忙「代工」製造出這個融合蛋白。接著,科學家會用層析、電泳等方法把它純化出來,再一一檢查它有沒有摺疊正確、功能是否完整。

如果一切順利,這個人工設計的融合分子,就能像自然界的蛋白一樣穩定運作,一個全新的「人造分子兵器」就此誕生。

CD4免疫黏附素問世之後,融合蛋白逐漸成為生物製藥的重要平台之一。而且現在的融合蛋白,早就不只是「假受體+Fc 區域」這麼單純。它已經跳脫模仿抗體,成為真正能自由組裝、自由設計的生物積木。

CD4免疫黏附素問世之後,融合蛋白逐漸成為生物製藥的重要平台之一 / 圖片來源:wikipedia

融合蛋白的強項,就在於它能「自由組裝」。

以抗體為骨架,科學家可以接上任何想要的功能模組,創造出全新的藥物型態。一般的抗體只能「抓」(標記特定靶點);但融合蛋白不只會抓,還能「阻斷」、「傳遞」、甚至「調控」訊號。在功能模組的加持下,它在藥物設計上,幾乎像是一個分子級的鋼鐵蜘蛛人裝甲。

一般來說,當我們選擇使用融合蛋白時,通常會期待它能發揮幾種關鍵效果:

  1. 療效協同: 一款藥上面就能同時針對多個靶點作用,有機會提升治療反應率與持續時間,達到「一藥多效」的臨床價值。
  2. 減少用藥: 原本需要兩到三種單株抗體聯合使用的療法,也許只要一種融合蛋白就能搞定。這不僅能減少給藥次數,對病人來說,也有機會因為用藥減少而降低治療成本。
  3. 降低毒性風險: 經過良好設計的融合蛋白,可以做到更精準的「局部活化」,讓藥物只在目標區域發揮作用,減少副作用。

到目前為止,我們了解了融合蛋白是如何製造的,也知道它的潛力有多大。

那麼,目前實際成效到底如何呢?

一箭雙鵰:拆解癌細胞的「偽裝」與「內奸」

2016 年,德國默克(Merck KGaA)展開了一項全新的臨床試驗。 主角是一款突破性的雙功能融合蛋白──Bintrafusp Alfa。這款藥物的厲害之處在於,它能同時封鎖 PD-L1 和 TGF-β 兩條免疫抑制路徑。等於一邊拆掉癌細胞的偽裝,一邊解除它的防護罩。

PD-L1,我們或許不陌生,它就像是癌細胞身上的「偽裝良民證」。當 PD-L1 和免疫細胞上的 PD-1 受體結合時,就會讓免疫系統誤以為「這細胞是自己人」,於是放過它。我們的策略,就是用一個抗體或抗體樣蛋白黏上去,把這張「偽裝良民證」封住,讓免疫系統能重新啟動。

但光拆掉偽裝還不夠,因為癌細胞還有另一位強大的盟友—一個起初是我軍,後來卻被癌細胞收買、滲透的「內奸」。它就是,轉化生長因子-β,縮寫 TGF-β。

先說清楚,TGF-β 原本是體內的秩序管理者,掌管著細胞的生長、分化、凋亡,還負責調節免疫反應。在正常細胞或癌症早期,它會和細胞表面的 TGFBR2 受體結合,啟動一連串訊號,抑制細胞分裂、減緩腫瘤生長。

但當癌症發展到後期,TGF-β 跟 TGFBR2 受體之間的合作開始出問題。癌細胞表面的 TGFBR2 受體可能突變或消失,導致 TGF-β 不但失去了原本的抑制作用,反而轉向幫癌細胞做事

它會讓細胞骨架(actin cytoskeleton)重新排列,讓細胞變長、變軟、更有彈性,還能長出像觸手的「偽足」(lamellipodia、filopodia),一步步往外移動、鑽進組織,甚至進入血管、展開全身轉移。

更糟的是,這時「黑化」的 TGF-β 還會壓抑免疫系統,讓 T 細胞和自然殺手細胞變得不再有攻擊力,同時刺激新血管生成,幫腫瘤打通營養補給線。

為了對抗這個內奸,默克在 Bintrafusp Alfa 的結構裡,加上了一個「TGF-β 陷阱(trap)」。就像 1989 年的 CD4 免疫黏附素用「假受體」去騙 HIV 一樣,這個融合蛋白在體內循環時,會用它身上的「陷阱」去捕捉並中和游離的 TGF-β。這讓 TGF-β 無法再跟腫瘤細胞或免疫細胞表面的天然受體結合,從而鬆開了那副壓抑免疫系統的腳鐐。

為了對抗這個內奸,默克在 Bintrafusp Alfa 的結構裡,加上了一個「TGF-β 陷阱(trap)」/ 情境圖來源:shutterstock

告別單一解方:融合蛋白的「全方位圍剿」戰

但,故事還沒完。我們之前提過,癌細胞之所以難纏,在於它會發展出各種「免疫逃脫」策略。

而近年我們發現,癌細胞的「偽良民證」至少就有兩張:一張是 PD-L1;另一張是 CD-47。CD47 是癌細胞向巨噬細胞展示的「別吃我」訊號,當它與免疫細胞上的 SIRPα 結合時,就會抑制吞噬反應。

為此,總部位於台北的漢康生技,決定打造能同時對付 PD-L1、CD-47,乃至 TGF-β 的三功能生物藥 HCB301。

雖然三功能融合蛋白聽起來只是「再接一段蛋白」而已,但實際上極不簡單。截至目前,全球都還沒有任何三功能抗體或融合蛋白批准上市,在臨床階段的生物候選藥,也只佔了整個生物藥市場的 1.6%。

漢康生技透過自己開發的 FBDB 平台技術,製作出了三功能的生物藥 HCB301,目前第一期臨床試驗已經在美國、中國批准執行。

免疫療法絕對是幫我們突破癌症的關鍵。但我們也知道癌症非常頑強,還有好幾道關卡我們無法攻克。既然單株抗體在戰場上顯得單薄,我們就透過融合蛋白,創造出擁有多種功能模組的「升級版無人機」。

融合蛋白強的不是個別的偵查或阻敵能力,而是一組可以「客製化組裝」的平台,用以應付癌細胞所有的逃脫策略。

Catch Me If You Can?融合蛋白的回答是:「We Can.」

未來癌症的治療戰場,也將從尋找「唯一解」,轉變成如何「全方位圍剿」癌細胞,避免任何的逃脫。

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

1
0

文字

分享

0
1
0
解密機器人如何學會思考、觸摸與變形
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/09 ・6820字 ・閱讀時間約 14 分鐘

本文與 Perplexity 合作,泛科學企劃執行

「Hello. I am… a robot.」

在我們的記憶裡,機器人的聲音就該是冰冷、單調,不帶一絲情感 。它們的動作僵硬,肢體不協調,像一個沒有靈魂的傀儡,甚至啟發我們創造了機械舞來模仿那獨特的笨拙可愛。但是,現今的機器人發展不再只會跳舞或模仿人聲,而是已經能獨立完成一場膽囊切除手術。

就在2025年,美國一間實驗室發表了一項成果:一台名為「SRT-H」的機器人(階層式手術機器人Transformer),在沒有人類醫師介入的情況下,成功自主完成了一場完整的豬膽囊切除手術。SRT-H 正是靠著從錯誤中學習的能力,最終在八個不同的離體膽囊上,達成了 100% 的自主手術成功率。

-----廣告,請繼續往下閱讀-----

這項成就的意義重大,因為過去機器人手術的自動化,大多集中在像是縫合這樣的單一「任務」上。然而,這一場完整的手術,是一個包含數十個步驟、需要連貫策略與動態調整的複雜「程序」。這是機器人首次在包含 17 個步驟的完整膽囊切除術中,實現了「步驟層次的自主性」。

這就引出了一個讓我們既興奮又不安的核心問題:我們究竟錯過了什麼?機器人是如何在我們看不見的角落,悄悄完成了從「機械傀儡」到「外科醫生」的驚人演化?

這趟思想探險,將為你解密 SRT-H 以及其他五款同樣具備革命性突破的機器人。你將看到,它們正以前所未有的方式,發展出生物般的觸覺、理解複雜指令、學會團隊合作,甚至開始自我修復與演化,成為一種真正的「準生命體」 。

所以,你準備好迎接這個機器人的新紀元了嗎?

-----廣告,請繼續往下閱讀-----

只靠模仿還不夠?手術機器人還需要學會「犯錯」與「糾正」

那麼,SRT-H 這位機器人的外科大腦,究竟藏著什麼秘密?答案就在它創新的「階層式框架」設計裡 。

你可以想像,SRT-H 的腦中,住著一個分工明確的兩人團隊,就像是漫畫界的傳奇師徒—黑傑克與皮諾可 。

  • 第一位,是動口不動手的總指揮「黑傑克」: 它不下達具體的動作指令,而是在更高維度的「語言空間」中進行策略規劃 。它發出的命令,是像「抓住膽管」或「放置止血夾」這樣的高層次任務指令 。
  • 第二位,是靈巧的助手「皮諾可」: 它負責接收黑傑克的語言指令,並將這些抽象的命令,轉化為機器手臂毫釐不差的精準運動軌跡 。

但最厲害的還不是這個分工,而是它們的學習方式。SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。但這還只是開始,研究人員在訓練過程中,會刻意讓它犯錯,並向它示範如何從抓取失敗、角度不佳等糟糕的狀態中恢復過來 。這種獨特的訓練方法,被稱為「糾正性示範」 。

SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。 / 圖片來源:shutterstock

這項訓練,讓 SRT-H 學會了一項外科手術中最關鍵的技能:當它發現執行搞砸了,它能即時識別偏差,並發出如「重試抓取」或「向左調整」等「糾正性指令」 。這套內建的錯誤恢復機制至關重要。當研究人員拿掉這個糾正能力後,機器人在遇到困難時,要不是完全失敗,就是陷入無效的重複行為中 。

-----廣告,請繼續往下閱讀-----

正是靠著這種從錯誤中學習、自我修正的能力,SRT-H 最終在八次不同的手術中,達成了 100% 的自主手術成功率 。

SRT-H 證明了機器人開始學會「思考」與「糾錯」。但一個聰明的大腦,足以應付更混亂、更無法預測的真實世界嗎?例如在亞馬遜的倉庫裡,機器人不只需要思考,更需要實際「會做事」。

要能精準地與環境互動,光靠視覺或聽覺是不夠的。為了讓機器人能直接接觸並處理日常生活中各式各樣的物體,它就必須擁有生物般的「觸覺」能力。

解密 Vulcan 如何學會「觸摸」

讓我們把場景切換到亞馬遜的物流中心。過去,這裡的倉儲機器人(如 Kiva 系統)就像放大版的掃地機器人,核心行動邏輯是極力「避免」與周遭環境發生任何物理接觸,只負責搬運整個貨架,再由人類員工挑出包裹。

-----廣告,請繼續往下閱讀-----

但 2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan。在亞馬遜的物流中心裡,商品被存放在由彈性帶固定的織物儲物格中,而 Vulcan 的任務是必須主動接觸、甚至「撥開」彈性織網,再從堆放雜亂的儲物格中,精準取出單一包裹,且不能造成任何損壞。

2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan / 圖片引用:https://www.aboutamazon.com/news

Vulcan 的核心突破,就在於它在「拿取」這個動作上,學會了生物般的「觸覺」。它靈活的機械手臂末端工具(EOAT, End-Of-Arm Tool),不僅配備了攝影機,還搭載了能測量六個自由度的力與力矩感測器。六個自由度包含上下、左右、前後的推力,和三個維度的旋轉力矩。這就像你的手指,裡頭分布著非常多的受器,不只能感測壓力、還能感受物體橫向拉扯、運動等感觸。

EOAT 也擁有相同精確的「觸覺」,能夠在用力過大之前即時調整力道。這讓 Vulcan 能感知推動一個枕頭和一個硬紙盒所需的力量不同,從而動態調整行為,避免損壞貨物。

其實,這更接近我們人類與世界互動的真實方式。當你想拿起桌上的一枚硬幣時,你的大腦並不會先計算出精準的空間座標。實際上,你會先把手伸到大概的位置,讓指尖輕觸桌面,再沿著桌面滑動,直到「感覺」到硬幣的邊緣,最後才根據觸覺決定何時彎曲手指、要用多大的力量抓起這枚硬幣。Vulcan 正是在學習這種「視覺+觸覺」的混合策略,先用攝影機判斷大致的空間,再用觸覺回饋完成最後精細的操作。

-----廣告,請繼續往下閱讀-----

靠著這項能力,Vulcan 已經能處理亞馬遜倉庫中約 75% 的品項,並被優先部署來處理最高和最低層的貨架——這些位置是最容易導致人類員工職業傷害的位置。這也讓自動化的意義,從單純的「替代人力」,轉向了更具建設性的「增強人力」。

SRT-H 在手術室中展現了「專家級的腦」,Vulcan 在倉庫中演化出「專家級的手」。但你發現了嗎?它們都還是「專家」,一個只會開刀,一個只會揀貨。雖然這種「專家型」設計能有效規模化、解決痛點並降低成本,但機器人的終極目標,是像人類一樣成為「通才」,讓單一機器人,能在人類環境中執行多種不同任務。

如何教一台機器人「舉一反三」?

你問,機器人能成為像我們一樣的「通才」嗎?過去不行,但現在,這個目標可能很快就會實現了。這正是 NVIDIA 的 GR00T 和 Google DeepMind 的 RT-X 等專案的核心目標。

過去,我們教機器人只會一個指令、一個動作。但現在,科學家們換了一種全新的教學思路:停止教機器人完整的「任務」,而是開始教它們基礎的「技能基元」(skill primitives),這就像是動作的模組。

-----廣告,請繼續往下閱讀-----

例如,有負責走路的「移動」(Locomotion) 基元,和負責抓取的「操作」(Manipulation) 基元。AI 模型會透過強化學習 (Reinforcement Learning) 等方法,學習如何組合這些「技能基元」來達成新目標。

舉個例子,當 AI 接收到「從冰箱拿一罐汽水給我」這個新任務時,它會自動將其拆解為一系列已知技能的組合:首先「移動」到冰箱前、接著「操作」抓住把手、拉開門、掃描罐子、抓住罐子、取出罐子。AI T 正在學會如何將這些單一的技能「融合」在一起。有了這樣的基礎後,就可以開始來大量訓練。

當多重宇宙的機器人合體練功:通用 AI 的誕生

好,既然要學,那就要練習。但這些機器人要去哪裡獲得足夠的練習機會?總不能直接去你家廚房實習吧。答案是:它們在數位世界裡練習

NVIDIA 的 Isaac Sim 等平台,能創造出照片級真實感、物理上精確的模擬環境,讓 AI 可以在一天之內,進行相當於數千小時的練習,獨自刷副本升級。這種從「模擬到現實」(sim-to-real)的訓練管線,正是讓訓練這些複雜的通用模型變得可行的關鍵。

-----廣告,請繼續往下閱讀-----

DeepMind 的 RT-X 計畫還發現了一個驚人的現象:用來自多種「不同類型」機器人的數據,去訓練一個單一的 AI 模型,會讓這個模型在「所有」機器人上表現得更好。這被稱為「正向轉移」(positive transfer)。當 RT-1-X 模型用混合數據訓練後,它在任何單一機器人上的成功率,比只用該機器人自身數據訓練的模型平均提高了 50%。

這就像是多重宇宙的自己各自練功後,經驗值合併,讓本體瞬間變強了。這意味著 AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。

AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。/ 圖片來源:shutterstock

不再是工程師,而是「父母」: AI 的新學習模式

這也導向了一個科幻的未來:或許未來可能存在一個中央「機器人大腦」,它可以下載到各種不同的身體裡,並即時適應新硬體。

這種學習方式,也從根本上改變了我們與機器人的互動模式。我們不再是逐行編寫程式碼的工程師,而是更像透過「示範」與「糾正」來教導孩子的父母。

NVIDIA 的 GR00T 模型,正是透過一個「數據金字塔」來進行訓練的:

  • 金字塔底層: 是大量的人類影片。
  • 金字塔中層: 是海量的模擬數據(即我們提過的「數位世界」練習)。
  • 金字塔頂層: 才是最珍貴、真實的機器人操作數據。

這種模式,大大降低了「教導」機器人新技能的門檻,讓機器人技術變得更容易規模化與客製化。

當機器人不再是「一個」物體,而是「任何」物體?

我們一路看到了機器人如何學會思考、觸摸,甚至舉一反三。但這一切,都建立在一個前提上:它們的物理形態是固定的。

但,如果連這個前提都可以被打破呢?這代表機器人的定義不再是固定的形態,而是可變的功能:它能改變身體來適應任何挑戰,不再是一台單一的機器,而是一個能根據任務隨選變化的物理有機體。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院特別具有代表性,該學院的仿生機器人實驗室(Bioinspired Robotics Group, BIRG)2007 年就打造模組化自重構機器人 Roombots。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院(EPFL)特別具有代表性。該學院的仿生機器人實驗室(BIRG)在 2007 年就已打造出模組化自重構機器人 Roombots。而 2023 年,來自 EPFL 的另一個實驗室——可重組機器人工程實驗室(RRL),更進一步推出了 Mori3,這是一套把摺紙藝術和電腦圖學巧妙融合的模組化機器人系統。

2023 年來自 EPFL 的另一個實驗室—可重組機器人工程實驗室(RRL)推出了 Mori3 © 2023 Christoph Belke, EPFL RRL

Mori3 的核心,是一個個小小的三角形模組。別看它簡單,每個模組都是一個獨立的機器人,有自己的電源、馬達、感測器和處理器,能獨立行動,也能和其他模組合作。最厲害的是,它的三條邊可以自由伸縮,讓這個小模組本身就具備「變形」能力。

當許多 Mori3 模組連接在一起時,就能像一群活的拼圖一樣,從平面展開,組合成各種三維結構。研究團隊將這種設計稱為「物理多邊形網格化」。在電腦圖學裡,我們熟悉的 3D 模型,其實就是由許多多邊形(通常是三角形)拼湊成的網格。Mori3 的創新之處,就是把這種純粹的數位抽象,真正搬到了現實世界,讓模組們化身成能活動的「實體網格」。

這代表什麼?團隊已經展示了三種能力:

  • 移動:他們用十個模組能組合成一個四足結構,它能從平坦的二維狀態站立起來,並開始行走。這不只是結構變形,而是真正的協調運動。
  • 操縱: 五個模組組合成一條機械臂,撿起物體,甚至透過末端模組的伸縮來擴大工作範圍。
  • 互動: 模組們能形成一個可隨時變形的三維曲面,即時追蹤使用者的手勢,把手的動作轉換成實體表面的起伏,等於做出了一個會「活」的觸控介面。

這些展示,不只是實驗室裡的炫技,而是真實證明了「物理多邊形網格化」的潛力:它不僅能構建靜態的結構,還能創造具備複雜動作的動態系統。而且,同一批模組就能在不同情境下切換角色。

想像一個地震後的救援場景:救援隊帶來的不是一台笨重的挖土機,而是一群這樣的模組。它們首先組合成一條長長的「蛇」形機器人,鑽入瓦礫縫隙;一旦進入開闊地後,再重組成一隻多足的「蜘蛛」,以便在不平的地面上穩定行走;發現受困者時,一部分模組分離出來形成「支架」撐住搖搖欲墜的橫樑,另一部分則組合成「夾爪」遞送飲水。這就是以任務為導向的自我演化。

這項技術的終極願景,正是科幻中的概念:可程式化物質(Programmable Matter),或稱「黏土電子學」(Claytronics)。想像一桶「東西」,你可以命令它變成任何你需要的工具:一支扳手、一張椅子,或是一座臨時的橋樑。

未來,我們只需設計一個通用的、可重構的「系統」,它就能即時創造出任務所需的特定機器人。這將複雜性從實體硬體轉移到了規劃重構的軟體上,是一個從硬體定義的世界,走向軟體定義的物理世界的轉變。

更重要的是,因為模組可以隨意分開與聚集,損壞時也只要替換掉部分零件就好。足以展現出未來機器人的適應性、自我修復與集體行為。當一群模組協作時,它就像一個超個體,如同蟻群築橋。至此,「機器」與「有機體」的定義,也將開始動搖。

從「實體探索」到「數位代理」

我們一路見證了機器人如何從單一的傀儡,演化為學會思考的外科醫生 (SRT-H)、學會觸摸的倉儲專家 (Vulcan)、學會舉一反三的通才 (GR00T),甚至是能自我重構成任何形態的「可程式化物質」(Mori3)。

但隨著機器人技術的飛速發展,一個全新的挑戰也隨之而來:在一個 AI 也能生成影像的時代,我們如何分辨「真實的突破」與「虛假的奇觀」?

舉一個近期的案例:2025 年 2 月,一則影片在網路上流傳,顯示一台人形機器人與兩名人類選手進行羽毛球比賽,並且輕鬆擊敗了人類。我的第一反應是懷疑:這太誇張了,一定是 AI 合成的影片吧?但,該怎麼驗證呢?答案是:用魔法打敗魔法。

在眾多 AI 工具中,Perplexity 特別擅長資料驗證。例如這則羽球影片的內容貼給 Perplexity,它馬上就告訴我:該影片已被查證為數位合成或剪輯。但它並未就此打住,而是進一步提供了「真正」在羽球場上有所突破的機器人—來自瑞士 ETH Zurich 團隊的 ANYmal-D

接著,選擇「研究模式」,就能深入了解 ANYmal-D 的詳細原理。原來,真正的羽球機器人根本不是「人形」,而是一台具備三自由度關節的「四足」機器人。

如果你想更深入了解,Perplexity 的「實驗室」功能,還能直接生成一份包含圖表、照片與引用來源的完整圖文報告。它不只介紹了 ANYmal-D 在羽球上的應用,更詳細介紹了瑞士聯邦理工學院發展四足機器人的完整歷史:為何選擇四足?如何精進硬體與感測器結構?以及除了運動領域外,四足機器人如何在關鍵的工業領域中真正創造價值。

AI 代理人:數位世界的新物種

從開刀、揀貨、打球,到虛擬練功,這些都是機器人正在學習「幫我們做」的事。但接下來,機器人將獲得更強的「探索」能力,幫我們做那些我們自己做不到的事。

這就像是,傳統網路瀏覽器與 Perplexity 的 Comet 瀏覽器之間的差別。Comet 瀏覽器擁有自主探索跟決策能力,它就像是數位世界裡的機器人,能成為我們的「代理人」(Agent)

它的核心功能,就是拆解過去需要我們手動完成的多步驟工作流,提供「專業代工」,並直接交付成果。

例如,你可以直接對它說:「閱讀這封會議郵件,檢查我的行事曆跟代辦事項,然後草擬一封回信。」或是直接下達一個複雜的指令:「幫我訂 Blue Origin 的太空旅遊座位,記得要來回票。」

接著,你只要兩手一攤,Perplexity 就會接管你的瀏覽器,分析需求、執行步驟、最後給你結果。你再也不用自己一步步手動搜尋,或是在不同網站上重複操作。

AI 代理人正在幫我們探索險惡的數位網路,而實體機器人,則在幫我們前往真實的物理絕境。

立即點擊專屬連結 https://perplexity.sng.link/A6awk/k74… 試用 Perplexity吧! 現在申辦台灣大哥大月付 599(以上) 方案,還可以獲得 1 年免費 Perplexity Pro plan 喔!(價值 新台幣6,750)

◆Perplexity 使用實驗室功能對 ANYmal-D 與團隊的全面分析 https://drive.google.com/file/d/1NM97…

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

-----廣告,請繼續往下閱讀-----

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
-----廣告,請繼續往下閱讀-----

討論功能關閉中。

賴昭正_96
48 篇文章 ・ 60 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此獲有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪,IBM顧問研究化學家退休 。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲它轉載我的科學月刊上的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」。