Loading [MathJax]/jax/output/HTML-CSS/config.js

0

0
0

文字

分享

0
0
0

Eugene Goostman 程式真的通過了圖靈測試嗎?

程式人雜誌
・2014/06/11 ・2966字 ・閱讀時間約 6 分鐘 ・SR值 572 ・九年級

SN7TvUG

前言

2014 年 6 月 9 日,我看到 inside 網站中有人發布了一個訊息 「電腦首度通過圖靈測試(36kr.com)」。 我的直覺反應是,這件事情勢必有假,於是一路追了下去。

Inside 的訊息其實是轉貼自 36氪這個來自中國的網站, 36氪網站的文章標是 「计算机首次通过图灵测试」

不仔細看文章的人,很可能會被誤導,認為電腦已經可以成功得欺騙人類,讓人以為他是一個真人,而且比率達到和真人一樣的水準,也就是「人類已經無法正確區分文字交談的對象到底是電腦還是人類了」。

但是、這樣的想法是錯的,文章中所說的 Eugene Goostman 這個軟體其實並沒有達到「完全能欺騙人類」的水準,因為他們所說的圖靈測試,和我所認知的圖靈測試,根本就是不同的東西。

-----廣告,請繼續往下閱讀-----

圖靈測試是甚麼?

36氪文章中所說的 「图灵测试」 ,其實有連結到百度百科。百度百科裏對圖靈測試的描述如下:

图灵测试是测试人在与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。问过一些问题后,如果被测试者超过30%的答复不能使测试人确认出哪个是人、哪个是机器的回答,那么这台机器就通过了测试,并被认为具有人类智能。

但是、我所認知的圖靈測試,並不是採用 30% 誤判率為基準的,而是應該達到「和人類被誤判為電腦」一樣的水準。換句話說,假如程式偽裝的和真人一樣好的話,那麼應該要符合下列的表格要求。

判斷者的決定 交談對象為人類 交談對象為電腦程式
判斷為人 比率為 P (正確判斷) 比率大於或等於為 P (欺騙成功)
判斷為電腦 比率為 1-P (誤判人為電腦) 比率小於或等於為 1-P (欺騙失敗)

因此、對於上述新聞中所說的,「计算机首次通过图灵测试」 這件事情,其實是採用 30% 的欺騙成功率,這是我們認為該宣稱有問題的關鍵原因。

但是、為甚麼測試單位「英國雷丁大學」要採用 30% 做為圖靈測試是否通過的標準呢?我想原因應該來自於「圖靈」本人在那篇名為 「COMPUTING MACHINERY AND INTELLIGENCE 」的文章中所提到的一個預估,原文如下:

-----廣告,請繼續往下閱讀-----

I believe that in about fifty years’ time it will be possible to programme computers, with a storage capacity of about 10^9, to make them play the imitation game so well that an average interrogator will not have more than 70 percent chance of making the right identification after five minutes of questioning. … I believe that at the end of the century the use of words and general educated opinion will have altered so much that one will be able to speak of machines thinking without expecting to be contradicted.

在上文當中「圖靈」預估 50 年後,一個一般的詢問者經過5分鐘的詢問之後,只有不到70%的機率能正確指認被詢問者是電腦還是人。於是「英國雷丁大學」就把這個預估當成圖靈測試的基準了。

但是、這只是圖靈的一個預估,並不代表圖靈測試就應該定為成功的欺騙過 30% 的人啊! (而且這也不是學術界對圖靈測試的一個共識)。

測試單位的英文公告

36氪的 「计算机首次通过图灵测试」 一文中指出了訊息來源為「英國雷丁大學的新聞稿」,連結如下:

TURING TEST SUCCESS MARKS MILESTONE IN COMPUTING HISTORY

-----廣告,請繼續往下閱讀-----

該新聞稿提到 Eugene Goostman 這個程式通過圖靈測試的語句如下:

The 65 year-old iconic Turing Test was passed for the very first time by supercomputer Eugene Goostman during Turing Test 2014 held at the renowned Royal Society in London on Saturday.

但新聞稿的後面有寫出測試方法的描述:

  1. Simultaneous tests as specified by Alan Turing
  2. Each judge was involved in five parallel tests – so 10 conversations
  3. 30 judges took part
  4. In total 300 conversations
  5. In each five minutes a judge was communicating with both a human and a machine
  6. Each of the five machines took part in 30 tests
  7. To ensure accuracy of results, Test was independently adjudicated by Professor John Barnden, University of Birmingham, formerly head of British AI Society

我對這個測試方法的解讀如下:

  1. 圖靈測試:電腦程式是否能成功的透過文字交談欺騙人類,偽裝自己是個人。
  2. 每個「判斷者」都會分別判斷五組「人+電腦」的配對,也就是總共進行 10 次的對話。
  3. 總共有 30 位判斷者參與。
  4. 總共有 30*10=300 場的交談。
  5. 在五分鐘內,「判斷者」會與一組「人和機器」分別交談。
  6. 五組「電腦程式」都會與 30 位「判斷者」談過一次。
  7. 為了確認「判斷者」判斷結果為正確或錯誤, John Barnden 教授會監控並確認結果。

問題在哪裡?

我認為「英國雷丁大學發布的新聞稿」用詞有欠妥當,主要是因為下列語句實在是太過強烈:

-----廣告,請繼續往下閱讀-----

The 65 year-old iconic Turing Test was passed for the very first time by supercomputer Eugene Goostman during Turing Test 2014 held at the renowned Royal Society in London on Saturday.

雖然新聞稿後面有交代 Eugene Goostman 程式成功的欺騙過 33% 的判斷者,但是沒有看完全文的人還是很容易被誤導的。

If a computer is mistaken for a human more than 30% of the time during a series of five minute keyboard conversations it passes the test. No computer has ever achieved this, until now. Eugene managed to convince 33% of the human judges (30 judges took part – see more details below) that it was human.

而 36氪網站直接把 「计算机首次通过图灵测试」 拿來當標題,則是進一步的誤導了大家, 雖然 36氪有超連結指向 百度的圖靈測試定義 ,但是這個定義顯然與一般人的認知不同,應該要強調一下才對,不應該企圖用聳動性的標題吸引目光。

最後、 inside 的轉載 「電腦首度通過圖靈測試(36kr.com)」 這篇,雖然有指出來源的 36氪網站文章,不過我想轉貼的人或許沒有仔細想過到底文章中的「通過圖靈測試」到底是甚麼意義,也沒想過這樣可能會誤導讀者,造成錯誤科學訊息的傳播問題。

以前的程式表現如何?

事實上、能夠成功欺騙人類,讓某些人認為對方是真人的交談程式,在人工智慧的歷史上很早就出現過了。

-----廣告,請繼續往下閱讀-----

遠在 1966 年時,Joseph Weizenbaum 就曾經創造出一個稱為 ELIZA 的程式,該程式採用了非常簡單的字串比對方法,結果竟然讓不少交談者認為 ELIZA 是個真人,以下是維基百科對 Eliza 程式的描述網址:

http://en.wikipedia.org/wiki/ELIZA

在 2013 年 8 月號的程式人雜誌當中,筆者也在文章中展示了一個自己寫的「中文版 Eliza 聊天程式」,有興趣的朋友也可以閱讀該文章順便瞭解這種程式是怎麼做的。

JavaScript (8) – 中文版 Eliza 聊天程式

-----廣告,請繼續往下閱讀-----

另外、在 2011 年時有一個稱為 Cleverbot 的程式 曾經創造過成功欺騙 60% 判斷者的紀錄,這個紀錄比這次比賽第一名的 Eugene Goostman 程式還要高。因此我們真的很難用「電腦首度通過圖靈測試」這樣的語句來描述這次比賽的結果,甚至這次比賽到底是否有創了什麼記錄都是很難確定的。

所以、我真的覺得這樣的訊息是過於聳動了,因此特別寫了這篇文章來提醒大家,避免很多人會被這些訊息誤導。

我的感想

從這個案例中,我們可以看到在網路訊息發達的今天,要能夠不被誤導,恐怕必須要有很強的判斷力與追根究柢的精神,但是在這個訊息多如牛毛的世界中,錯誤與聳動的訊息往往傳播的特別快,這恐怕是網路世界亟待解決的問題之一啊!

最後、我上 g0v 的新聞小幫手 去檢舉了這個新聞,希望能讓誤導的情況稍微降低一下,檢舉網址如下:

-----廣告,請繼續往下閱讀-----

http://newshelper.g0v.tw/index/log/1819

轉載自程式人雜誌

-----廣告,請繼續往下閱讀-----
文章難易度
程式人雜誌
9 篇文章 ・ 1 位粉絲
程式人雜誌是一個結合「開放原始碼與公益捐款活動」的雜誌,簡稱「開放公益雜誌」。開放公益雜誌本著「讀書做善事、寫書做公益」的精神,我們非常歡迎程式人認養專欄、或者捐出您的網誌。

0

3
1

文字

分享

0
3
1
為機器人換上「物理大腦」:一場終結AI數位囚禁的革命
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/03 ・5732字 ・閱讀時間約 11 分鐘

本文與 研華科技 合作,泛科學企劃執行

我們都看過那種影片,對吧?網路上從不缺乏讓人驚嘆的機器人表演:數十台人形機器人像軍隊一樣整齊劃一地耍雜技 ,或是波士頓動力的機器狗,用一種幾乎違反物理定律的姿態後空翻、玩跑酷 。每一次,社群媒體總會掀起一陣「未來已來」、「人類要被取代了」的驚呼 。

但當你關掉螢幕,看看四周,一個巨大的落差感就來了:說好的機器人呢?為什麼大街上沒有他們的身影,為什麼我家連一件衣服都還沒人幫我摺?

這份存在於數位螢幕與物理現實之間的巨大鴻溝,源於一個根本性的矛盾:當代AI在數位世界裡聰明絕頂,卻在物理世界中笨拙不堪。它可以寫詩、可以畫畫,但它沒辦法為你端一杯水。

-----廣告,請繼續往下閱讀-----

這個矛盾,在我們常見的兩種機器人展示中體現得淋漓盡致。第一種,是動作精準、甚至會跳舞的類型,這本質上是一場由工程師預先寫好劇本的「戲」,機器人對它所處的世界一無所知 。第二種,則是嘗試執行日常任務(如開冰箱、拿蘋果)的類型,但其動作緩慢不穩,彷彿正在復健的病人 。

這兩種極端的對比,恰恰點出了機器人技術的真正瓶頸:它們的「大腦」還不夠強大,無法即時處理與學習真實世界的突發狀況 。

這也引出了本文試圖探索的核心問題:新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦,真的能終結機器人的「復健時代」,開啟一個它們能真正理解、並與我們共同生活的全新紀元嗎?

新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦 / 圖片來源:研華科技

為何我們看到的機器人,總像在演戲或復健?

那我們怎麼理解這個看似矛盾的現象?為什麼有些機器人靈活得像舞者,有些卻笨拙得像病人?答案,就藏在它們的「大腦」運作方式裡。

-----廣告,請繼續往下閱讀-----

那些動作極其精準、甚至會後空翻的機器人,秀的其實是卓越的硬體性能——關節、馬達、減速器的完美配合。但它的本質,是一場由工程師預先寫好劇本的舞台劇 。每一個角度、每一分力道,都是事先算好的,機器人本身並不知道自己為何要這麼做,它只是在「執行」指令,而不是在「理解」環境。

而另一種,那個開冰箱慢吞吞的機器人,雖然看起來笨,卻是在做一件革命性的事:它正在試圖由 AI 驅動,真正開始「理解」這個世界 。它在學習什麼是冰箱、什麼是蘋果、以及如何控制自己的力量才能順利拿起它。這個過程之所以緩慢,正是因為過去驅動它的「大腦」,也就是 AI 晶片的算力還不夠強,無法即時處理與學習現實世界中無窮的變數 。

這就像教一個小孩走路,你可以抱著他,幫他擺動雙腿,看起來走得又快又穩,但那不是他自己在走。真正的學習,是他自己搖搖晃晃、不斷跌倒、然後慢慢找到平衡的過程。過去的機器人,大多是前者;而我們真正期待的,是後者。

所以,問題的核心浮現了:我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好?

-----廣告,請繼續往下閱讀-----
我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好? / 圖片來源:shutterstock

機器人的大腦,為什麼不能放在雲端?

聽起來好像很合理,對吧?把所有複雜的運算都交給雲端最強大的伺服器,機器人本身只要負責接收指令就好了。但……真的嗎?

想像一下,如果你的大腦在雲端,你看到一個球朝你飛過來,視覺訊號要先上傳到雲端,雲端分析完,再把「快閃開」的指令傳回你的身體。這中間只要有零點幾秒的網路延遲,你大概就已經鼻青臉腫了。

現實世界的互動,需要的是「即時反應」。任何網路延遲,在物理世界中都可能造成無法彌補的失誤 。因此,運算必須在機器人本體上完成,這就是「邊緣 AI」(Edge AI)的核心概念 。而 NVIDIA  Jetson 平台,正是為了解決這種在裝置端進行高運算、又要兼顧低功耗的需求,而誕生的關鍵解決方案 。

NVIDIA Jetson 就像一個緊湊、節能卻效能強大的微型電腦,專為在各種裝置上運行 AI 任務設計 。回顧它的演進,早期的 Jetson 系統主要用於視覺辨識搭配AI推論,像是車牌辨識、工廠瑕疵檢測,或者在相機裡分辨貓狗,扮演著「眼睛」的角色,看得懂眼前的事物 。但隨著算力提升,NVIDIA Jetson 的角色也逐漸從單純的「眼睛」,演化為能夠控制手腳的「大腦」,開始驅動更複雜的自主機器,無論是地上跑的、天上飛的,都將NVIDIA Jetson 視為核心運算中樞 。

-----廣告,請繼續往下閱讀-----

但再強大的晶片,如果沒有能適應現場環境的「容器」,也無法真正落地。這正是研華(Advantech)的角色,我們將 NVIDIA Jetson 平台整合進各式工業級主機與邊緣運算設備,確保它能在高熱、灰塵、潮濕或震動的現場穩定運行,滿足從工廠到農場到礦場、從公車到貨車到貨輪等各種使用環境。換句話說,NVIDIA 提供「大腦」,而研華則是讓這顆大腦能在真實世界中呼吸的「生命支持系統」。

這個平台聽起來很工業、很遙遠,但它其實早就以一種你意想不到的方式,進入了我們的生活。

從Switch到雞蛋分揀員,NVIDIA Jetson如何悄悄改變世界?

如果我告訴你,第一代的任天堂Switch遊戲機與Jetson有相同血緣,你會不會很驚訝?它的核心處理器X1晶片,與Jetson TX1模組共享相同架構。這款遊戲機對高效能運算和低功耗的嚴苛要求,正好與 Jetson 的設計理念不謀而合 。

而在更專業的領域,研華透過 NVIDIA Jetson 更是解決了許多真實世界的難題 。例如

-----廣告,請繼續往下閱讀-----
  • 在北美,有客戶利用 AI 進行雞蛋品質檢測,研華的工業電腦搭載NVIDIA Jetson 模組與相機介面,能精準辨識並挑出髒污、雙黃蛋到血蛋 
  • 在日本,為避免鏟雪車在移動時發生意外,導入了環繞視覺系統,當 AI 偵測到周圍有人時便會立刻停止 ;
  • 在水資源珍貴的以色列,研華的邊緣運算平台搭載NVIDIA Jetson模組置入無人機內,24 小時在果園巡航,一旦發現成熟的果實就直接凌空採摘,實現了「無落果」的終極目標 。

這些應用,代表著 NVIDIA Jetson Orin™ 世代的成功,它讓「自動化」設備變得更聰明 。然而,隨著大型語言模型(LLM)的浪潮來襲,人們的期待也從「自動化」轉向了「自主化」 。我們希望機器人不僅能執行命令,更能理解、推理。

Orin世代的算力在執行人形機器人AI推論時的效能約為每秒5到10次的推論頻率,若要機器人更快速完成動作,需要更強大的算力。業界迫切需要一個更強大的大腦。這也引出了一個革命性的問題:AI到底該如何學會「動手」,而不只是「動口」?

革命性的一步:AI如何學會「動手」而不只是「動口」?

面對 Orin 世代的瓶頸,NVIDIA 給出的答案,不是溫和升級,而是一次徹底的世代跨越— NVIDIA Jetson Thor 。這款基於最新 Blackwell 架構的新模組,峰值性能是前代的 7.5 倍,記憶體也翻倍 。如此巨大的效能提升,目標只有一個:將過去只能在雲端資料中心運行的、以 Transformer 為基礎的大型 AI 模型,成功部署到終端的機器上 。

NVIDIA Jetson Thor 的誕生,將驅動機器人控制典範的根本轉變。這要從 AI 模型的演進說起:

-----廣告,請繼續往下閱讀-----
  1. 第一階段是 LLM(Large Language Model,大型語言模型):
    我們最熟悉的 ChatGPT 就屬此類,它接收文字、輸出文字,實現了流暢的人機對話 。
  2. 第二階段是 VLM(Vision-Language Model,視覺語言模型):
    AI 學會了看,可以上傳圖片,它能用文字描述所見之物,但輸出結果仍然是給人類看的自然語言 。
  3. 第三階段則是 VLA(Vision-Language-Action Model,視覺語言行動模型):
    這是革命性的一步。VLA 模型的輸出不再是文字,而是「行動指令(Action Token)」 。它能將視覺與語言的理解,直接轉化為控制機器人關節力矩、速度等物理行為的具體參數 。

這就是關鍵! 過去以NVIDIA Jetson Orin™作為大腦的機器人,僅能以有限的速度運行VLA模型。而由 VLA 模型驅動,讓 AI 能夠感知、理解並直接與物理世界互動的全新形態,正是「物理 AI」(Physical AI)的開端 。NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 。

NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 / 圖片來源:研華科技

其中,物理 AI 強調的 vision to action,就需要研華設計對應的硬體來實現;譬如視覺可能來自於一般相機、深度相機、紅外線相機甚至光達,你的系統就要有對應的介面來整合視覺;你也會需要控制介面去控制馬達伸長手臂或控制夾具拿取物品;你也要有 WIFI、4G 或 5G 來傳輸資料或和別的 AI 溝通,這些都需要具體化到一個系統上,這個系統的集大成就是機器人。

好,我們有了史上最強的大腦。但一個再聰明的大腦,也需要一副強韌的身體。而這副身體,為什麼非得是「人形」?這不是一種很沒效率的執念嗎?

為什麼機器人非得是「人形」?這不是一種低效的執念嗎?

這是我一直在思考的問題。為什麼業界的主流目標,是充滿挑戰的「人形」機器人?為何不設計成效率更高的輪式,或是功能更多元的章魚型態?

-----廣告,請繼續往下閱讀-----

答案,簡單到令人無法反駁:因為我們所處的世界,是徹底為人形生物所打造的。

從樓梯的階高、門把的設計,到桌椅的高度,無一不是為了適應人類的雙足、雙手與身高而存在 。對 AI 而言,採用人形的軀體,意味著它能用與我們最相似的視角與方式去感知和學習這個世界,進而最快地理解並融入人類環境 。這背後的邏輯是,與其讓 AI 去適應千奇百怪的非人形設計,不如讓它直接採用這個已經被數千年人類文明「驗證」過的最優解 。

這也區分了「通用型 AI 人形機器人」與「專用型 AI 工業自動化設備」的本質不同 。後者像高度特化的工具,產線上的機械手臂能高效重複鎖螺絲,但它無法處理安裝柔軟水管這種預設外的任務 。而通用型人形機器人的目標,是成為一個「多面手」,它能在廣泛學習後,理解物理世界的運作規律 。理論上,今天它在產線上組裝伺服器,明天就能在廚房裡學會煮菜 。

人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態 / 圖片來源:shutterstock

但要讓一個「多面手」真正活起來,光有骨架還不夠。它必須同時擁有強大的大腦平台與遍布全身的感知神經,才能理解並回應外在環境。人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態。但這些訊號若沒有通過一個穩定的「大腦平台」,就無法匯聚成有意義的行動。

這正是研華的角色:我們不僅把 NVIDIA Jetson Thor 這顆核心晶片包載在工業級電腦中,讓它成為能真正思考與反應的「完整大腦」,同時也提供神經系統的骨幹,將感測器、I/O 介面與通訊模組可靠地連結起來,把訊號傳導進大腦。你或許看不見研華的存在,但它實際上遍布在機器人全身,像隱藏在皮膚之下的神經網絡,讓整個身體真正活過來。

但有了大腦、有了身體,接下來的挑戰是「教育」。你要怎麼教一個物理 AI?總不能讓它在現實世界裡一直摔跤,把一台幾百萬的機器人摔壞吧?

打造一個「精神時光屋」,AI的學習速度能有多快?

這個問題非常關鍵。大型語言模型可以閱讀網際網路上浩瀚的文本資料,但物理世界中用於訓練的互動資料卻極其稀缺,而且在現實中反覆試錯的成本與風險實在太高 。

答案,就在虛擬世界之中。

NVIDIA Isaac Sim™等模擬平台,為這個問題提供了完美的解決方案 。它能創造出一個物理規則高度擬真的數位孿生(Digital Twin)世界,讓 AI 在其中進行訓練 。

這就像是為機器人打造了一個「精神時光屋」 。它可以在一天之內,經歷相當於現實世界千百日的學習與演練,從而在絕對安全的環境中,窮盡各種可能性,深刻領悟物理世界的定律 。透過這種「模擬-訓練-推論」的 3 Computers 閉環,Physical AI (物理AI) 的學習曲線得以指數級加速 。

我原本以為模擬只是為了節省成本,但後來發現,它的意義遠不止於此。它是在為 AI 建立一種關於物理世界的「直覺」。這種直覺,是在現實世界中難以透過有限次的試錯來建立的。

所以你看,這趟從 Switch 到人形機器人的旅程,一幅清晰的未來藍圖已經浮現了。實現物理 AI 的三大支柱已然齊備:一個劃時代的「AI 大腦」(NVIDIA Jetson Thor)、讓核心延展為「完整大腦與神經系統」的工業級骨幹(由研華 Advantech 提供),以及一個不可或缺的「教育環境」(NVIDIA Isaac Sim 模擬平台) 。

結語

我們拆解了那些酷炫機器人影片背後的真相,看見了從「自動化」走向「自主化」的巨大技術鴻溝,也見證了「物理 AI」時代的三大支柱——大腦、身軀、與教育——如何逐一到位 。

專家預測,未來 3 到 5 年內,人形機器人領域將迎來一場顯著的革命 。過去我們只能在科幻電影中想像的場景,如今正以前所未有的速度成為現實 。

這不再只是一個關於效率和生產力的問題。當一台機器,能夠觀察我們的世界,理解我們的語言,並開始以物理實體的方式與我們互動,這將從根本上改變我們與科技的關係。

所以,最後我想留給你的思想實驗是:當一個「物理 AI」真的走進你的生活,它不只是個工具,而是一個能學習、能適應、能與你共同存在於同一個空間的「非人智慧體」,你最先感受到的,會是興奮、是便利,還是……一絲不安?

這個問題,不再是「我們能否做到」,而是「當它發生時,我們準備好了嗎?」

研華已經整裝待發,現在,我們與您一起推動下一代物理 AI 與智慧設備的誕生。
https://bit.ly/4n78dR4

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
231 篇文章 ・ 316 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
-----廣告,請繼續往下閱讀-----

討論功能關閉中。

賴昭正_96
48 篇文章 ・ 59 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此獲有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪,IBM顧問研究化學家退休 。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲它轉載我的科學月刊上的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」。

0

1
0

文字

分享

0
1
0
驅動未來科技創新的運算平台領導廠商—Arm
鳥苷三磷酸 (PanSci Promo)_96
・2023/10/26 ・2594字 ・閱讀時間約 5 分鐘

本文由 Arm 委託,泛科學企劃執行。

Arm(安謀)是一家來自英國提供處理器 IP 架構設計的矽智財公司,你可能不清楚 Arm 在做什麼?但你可能在最近的新聞中聽過它,而且,你可能每天都在使用他們的產品!

實際上,90% 的智慧型手機使用的 CPU 晶片,其指令架構集(ISA)都是採用 Arm 架構,例如部分蘋果產品所使用的晶片、Android 手機常見的驍龍系列,以及聯發科技推出的天璣系列晶片,Arm 都是這些處理器架構的主要供應商。

每片 CPU 上,都有 ISA。圖/pixabay

不過這個指令架構集(ISA)到底是什麼?為什麼每台手機甚至電腦都要有呢?

-----廣告,請繼續往下閱讀-----

什麼是指令架構集(ISA)?

指令集架構(ISA)是電腦抽象模型的一部分,它定義了 CPU 如何被軟體控制。ISA 作為硬體和軟體之間的介面,既規定了處理器能夠執行的任務,又規定了如何執行這些任務。ISA 提供了使用者與硬體互動的唯一途徑。ISA 可以被視為程式設計師的手冊,透過 ISA,組合語言程式設計師、編譯器編寫者和應用程式程式設計師方能與機器溝通。

處理器的構建和設計稱為微架構(micro-architecture),微架構告訴您特定處理器的工作原理,例如,Arm Cortex-A53 和 Cortex-A73 都是 Armv8-A 架構的實現,這意味著它們具有相同的架構,但它們具有不同的微架構。

目前常見的 ISA 有用於電腦的 Intel/AMD x86_64 架構,以及在行動裝置是主流的 Arm 架構。而 Arm 本身不製造晶片只授權其架構給各個合作夥伴,授權的架構也被稱為「矽智財」(Semiconductor intellectual property core,簡稱 IP),並由合作夥伴依據規格打造合規的矽晶片。

Arm 成為全球關注的焦點

今年九月,Arm 在美國紐約那斯達克交易所掛牌上市,吸引大量投資者的目光,除了節能的設計,Arm 持續提升產品效能,使得 Arm 架構具有強大的競爭優勢,讓 Arm 的技術和產品,除了在行動裝置與物聯網應用佔據了重要地位,也在後續發展的其他產品持續協助產業推動技術革命。

-----廣告,請繼續往下閱讀-----

最早,Arm 架構是為了依靠電池運作的產品而設計的,隨著這十多年來的轉變,行動裝置成為主流,而 Arm 架構也成為了行動裝置的首選。

除了 Arm 原本行動裝置的通用 CPU 領域,Arm 亦著手開發專用 CPU 的架構,這些專用 CPU 的使用情境包含雲端基礎設施、車用和物聯網(IoT)。

現在 Arm 除了在手機處理器上有超過 90 % 的市占率外,在物聯網與嵌入式應用上有 65% 的市占率,目前車用晶片也逐步轉向由軟體來定義汽車的電子電氣架構,這凸顯了軟體在未來汽車架構的重要性。「嵌入式邊緣裝置使用的可擴充開放架構 (Scalable Open Architecture for Embedded Edge;SOAFEE) 」建立以雲原生的系統架構,透過雲端先行開發軟體,協助汽車產業業者在產品正式商品化前,能在基於 Arm 架構的晶片上進行虛擬環境測試,目前 Arm 在車用晶片上,市佔率超過四成。

由感測器至智慧製造系統設計,Arm 與生態系密切合作,推動技術創新

在雲端運算上,Arm 也推出了 Arm Neoverse 技術平台來協助雲端伺服器的晶片設計,並配合新推出的 Arm Neoverse 運算子系統(CSS),來簡化專用晶片的設計複雜性,減少晶片設計花費的時間。

-----廣告,請繼續往下閱讀-----

在 Arm 日益完整的產品組合下,透過與廣大生態系合作,能為市場提供許多軟硬體解決方案。首先,在行動裝置上,Arm 近乎霸占市場。而在 AI 發展與網路速度持續提升的趨勢下,許多運算都可以在雲端完成,最近的實例為 Nvidia 的 GeForce Now,只需一台文書機,就能暢玩 3A 大作,或是 Google 的 Colab,讓 AI 能在文書機上完成運算,造福了沒有高級顯卡的使用者。

未來,邊緣運算將陸續解開雲端運算的束縛,而 Arm 也在前期投入了雲端基礎開發,配合行動裝置的市占率,無論如何 Arm 都將在未來科技業占有一席之地。

Arm Tech Symposia 將在 11 / 1 與 11 / 2 盛大舉辦

2023 Arm 科技論壇(Arm Tech Symposia)即將在 11/1 台北萬豪酒店,11/2 新竹國賓飯店盛大舉辦!這是 Arm 每年最重要的實體活動之一,以【Arm is Building the Future of Computing】為主軸,探討在 AI 時代來臨之際,Arm 最新的技術如何驅動創新科技,為次世代的智慧運算、沉浸式視覺、AI 應用、自主體驗等帶來更多可能性。 

這次 Arm 科技論壇將圍繞在車用、物聯網、基礎設施、終端產品等熱門 AI 應用領域,並邀請台積公司、Cadence、瑞薩電子、新思科技、CoAsia 擎亞半導體等各領域專家,帶來產業第一手趨勢洞察。

-----廣告,請繼續往下閱讀-----

其次,也會分享 Arm 的新技術在 AI 的應用,包含如何透過軟體定義汽車降低汽車電子系統核心 EUC 整合的複雜性,同時維持汽車資安;以及介紹專為特定工作負載而設計的運算方式,如何讓企業不受外在環境與技術影響,處理更大規模的數據。

今年 11/1 在台北場的座談會,主題為 Edge computing on AI,探討邊緣運算在人工智慧上的應用,以及人工智慧對於半導體產業以及晶片研發帶來的影響,邀請 iKala 共同創辦人暨執行長程世嘉、聯發科技執行副總經理暨技術長周漁君,以及 Arm 台灣總裁曾志光與會。

Arm 科技論壇 11 月 1 日台北萬豪酒店。 圖 / Arm 

11/2 在新竹場的座談會主題為 The Keys of Automotive Transformation,探討汽車產業的轉型趨勢,邀請 Anchor Taiwan 執行長邱懷萱、友達光電執行長暨總經理/達擎董事長柯富仁、波士頓顧問公司董事總經理暨資深合夥人徐瑞廷,以及 Arm 台灣總裁曾志光與會。

Arm科技論壇 11月 2 日新竹國賓飯店。 圖 / Arm 

無論你是硬體工程師、軟體開發人員、晶圓代工、晶片設計商、OEM/ODM 還是相關產業人士,都能在這場論壇中互相交流,充實自己。

-----廣告,請繼續往下閱讀-----

2023 Arm 科技論壇報名連結

活動結束後填寫問卷的朋友,還有機會現場抽中 iPhone 15 Pro、 iRobot Roomba j7+ 掃地機器人、Sony WH-1000XM5 無線耳機、Dyson Purifier Big+Quiet Formaldehyde 空氣清淨機等精美好禮喔!

報名截止倒數中,現在就立刻報名吧!

-----廣告,請繼續往下閱讀-----