0

0
2

文字

分享

0
0
2

誰才是第一部電子計算機?——靠 650 美元誕生、曾被遺忘的 ABC 電腦│《電腦簡史》數位時代(九)

張瑞棋_96
・2020/10/19 ・2838字 ・閱讀時間約 5 分鐘 ・SR值 532 ・七年級

-----廣告,請繼續往下閱讀-----

當貝爾實驗室與 IBM 挾著龐大資源開發數位計算機時,在美國中西部一所以農業為主的學院裡,一位物理教授竟然單槍匹馬,僅憑拮据的經費就要打造出更先進的電子計算機……。

本文為系列文章,上一篇請見:史上第一部全自動的計算機——艾肯與 IBM 的恩怨情仇│《電腦簡史》數位時代(八)

只有 650 美元,卻想打造第一台電子計算機的原型機?

1939年 5 月,當艾肯與 IBM 啟動哈佛馬克一號的開發案時,愛荷華州立大學教授阿塔納索夫也獲得學校補助,加入打造數位計算機的行列。

IBM 有雄厚財力與商業計算機的基礎,另一邊正在開發複數計算機的貝爾實驗室也有龐大研究經費,反觀阿塔納索夫手上的資源卻少得可憐。學校只給了他 650 美元的補助,其中三分之二還是給研究生貝瑞 (Clifford Berry) 的助理津貼。在如此拮据的情況下,阿塔納索夫卻執意不用 IBM 與貝爾實驗室所用的繼電器,而是選擇速度更快,卻也更昂貴的真空管。

阿塔納索夫。圖:WIKI

阿塔納索夫早就預料經費有限,因此他在一年多前規劃整體架構時,已經琢磨出克難的方案。他降低成本的策略與楚澤設計 V4 時一樣,都是瞄準記憶單元。楚澤用金屬條取代繼電器,阿塔納索夫則是用電容器取代真空管。也就是說,只有運算單元使用真空管,記憶單元全部使用便宜許多的電容器。

-----廣告,請繼續往下閱讀-----

研究助理貝瑞原本就是電機系學生,在他的協助下,只花了半年時間,就於 1939 年底完成精簡版的原型機。雖然只有兩組 25 位元的記憶單元,運算單元也只有 13 個真空管,但運作結果證明了阿塔納索夫的構想可行,學校也同意新的年度再撥給他 700 美元繼續打造。

這筆錢當然仍遠遠不足,因此阿塔納索夫又向 IBM 等商用計算機公司投遞計劃書,卻都石沉大海。後來終於在 1941 年 3 月,有一個基金會願意贊助五千美元,這部計算機才得以在 1941 年底打造完成。

使用真空管與電容器,第一部電子計算機問世

阿塔納索夫一開始就是為了計算線性代數,才設計出這部計算機。它的原理是透過加減運算,逐步消去變數與方程式,最後得出答案,因此運算單元與控制單元相對簡單。完工後的機器尺寸並不大,約莫一張書桌大小,重 320 公斤,只用了 280 個真空管。最多可解 29 個變數的線性方程組。

記憶單元的主體構造是兩個直徑 20 公分的滾筒,各有 1,600 個電容器分布在滾筒表面。橫置的滾筒每秒轉一圈,表面的電容器經過電刷時,完成讀取資料與重新充電。這就是 1937 年底,阿塔納索夫在酒吧靈光一閃,冒出腦海的解決方案。

-----廣告,請繼續往下閱讀-----

輸入裝置與艾肯和史提畢茲的設計一樣,利用 IBM 現有的打孔卡片,輸入程式與數據。輸出裝置就相當特殊,真的可以用很「炫」來形容。它是讓特製的卡片經過兩個電極之間,用五千伏特的電弧在卡片上灼燒出許多細小的洞,來記錄計算結果。

ABC的構造。圖:WIKI

貝爾實驗室與 IBM 在這個時期所開發的計算機仍是用繼電器,雖然傳遞的是電子訊號,但繼電器的開關是機械動作,唯獨阿塔納索夫這部計算機全程用電子訊號進行二進位的運算。所以當它於 1942 年初成功解出有 10 個變數的線性方程組,也立下一個重要的里程碑,成為第一部完成運算的電子計算機。

有些人認為它並不純然是電子式,因為滾筒轉動是機械式的。不過這個說法並不公允,因為現代電腦所用的硬碟,裡面讀取頭的動作也是機械式,但我們並不會因此就說現代電腦不是電子式計算機。

二戰中斷研發,兩人各奔前程,留下的 ABC 電腦成歷史灰燼

當然,滾筒大幅拖慢了運算速度也是事實,不過要再提高滾筒轉速應該沒有太大問題,運算速度也就可以提升了。另外輸出裝置也須要再做改善;在實際運作時,電弧偶而會有偏差,沒有打在卡片上的正確位置,而輸出錯誤的答案。這可以設法增進放電的精確度,或放寬孔洞之間的距離,甚至乾脆放棄電弧,改用別種方式貯存計算結果,來確保記錄正確。

-----廣告,請繼續往下閱讀-----

只不過就算阿塔納索夫與貝瑞有任何想法,也都來不及再加以改善了。1942 年中,他們兩人都被徵召入伍,不得不離開校園。阿塔納索夫到海軍的武器實驗室服役,二次大戰結束後,與朋友共同創立一家武器研發公司,直到 1961 年退休,從事青少年的電腦教育工作。

貝瑞則是到一家國防相關的企業研發光譜儀,退役後仍繼續留任,不料卻在 1963 年自殺身亡。為了紀念貝瑞,阿塔納索夫從此將他們研發的計算機稱為「阿塔納索夫–貝瑞電腦」 (Atanasoff – Berry Computer,簡稱 ABC)。

ABC 的複製品,存放於愛荷華州立大學。圖:WIKI

其實阿塔納索夫本來沒有機會將 ABC 這名稱告訴全世界,因為外界從來不知道他們發明出第一部電子計算機。由於愛荷華州是個農業州,工商業並不發達,與科技界原本就沒什麼交集。而愛荷華州立大學當時只是農業與工藝學院,在科學研發方面又不受外界關注。以致於整個 40 年代,只有三篇短短的新聞稿報導過他們開發的電腦。

阿塔納索夫與貝瑞離開後,留在物理館地下室的機器逐漸蒙塵敗壞,後來整個愛荷華州立大學也沒人知曉它的用途,就被拆解丟棄了。最後只留下一個插滿電容器的滾筒,見證它曾經存在。因此除了少數人,世人根本不知道有這麼這一台機器。

-----廣告,請繼續往下閱讀-----

阿塔納索夫自己也只把打造 ABC 當成一個有趣的經驗,不值得大肆宣揚。事實上,當年他向基金會申請到補助後,曾經順便將文件複本寄給學校特約的專利律師,但不知是學校並不積極跟催,或是戰爭的影響,專利申請一直沒有送出去。阿塔納索夫自己也覺得無所謂,沒繼續追問,可見他完全沒察覺自己的發明所蘊含的重要性與價值。

第一部通用型電子計算機 ENIAC,研發竟涉嫌剽竊自 ABC?

沒想到原本已在電腦史上石沉大海的 ABC,竟在 1967 年春出現了轉機。阿塔納索夫也才知道自己錯失了什麼。

原來漢威聯合 (Honeywell) 等大型電腦公司都被索討專利授權金,而當初取得專利的莫奇利 (John Mauchly) 所憑藉的,是他所設計出第一部通用型電子計算機 ENIAC。但莫奇利是在拜訪阿塔納索夫,研究過 ABC 之後,才打造出 ENIAC。因此漢威聯合的律師希望阿塔納索夫能出庭作證,他們就能主張對方的專利無效。

阿塔納索夫這才驚覺自己不以為意的專利,竟被他一度推心置腹的莫奇利拔得頭籌。想當初自己熱心地招待莫奇利住在家中,讓他檢視建造中的計算機,還把整份文件攤給他看,結果他竟然獨享利益與光環。忿忿不平的阿塔納索夫當然樂意出庭作證,至少要讓世人知曉他與死去的戰友所打造的 ABC,才是第一部通用型電子計算機。

-----廣告,請繼續往下閱讀-----

差點成歷史灰燼的 ABC,終於因為這件官司而受到矚目,得以載於史冊。至於判決結果如何、ENIAC 究竟與 ABC 有無關係、莫奇利又是怎麼踏上這條路的,就待下一章分曉了。

-----廣告,請繼續往下閱讀-----
文章難易度
張瑞棋_96
423 篇文章 ・ 1056 位粉絲
1987年清華大學工業工程系畢業,1992年取得美國西北大學工業工程碩士。浮沉科技業近二十載後,退休賦閒在家,當了中年大叔才開始寫作,成為泛科學專欄作者。著有《科學史上的今天》一書;個人臉書粉絲頁《科學棋談》。

0

3
1

文字

分享

0
3
1
為機器人換上「物理大腦」:一場終結AI數位囚禁的革命
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/03 ・5732字 ・閱讀時間約 11 分鐘

本文與 研華科技 合作,泛科學企劃執行

我們都看過那種影片,對吧?網路上從不缺乏讓人驚嘆的機器人表演:數十台人形機器人像軍隊一樣整齊劃一地耍雜技 ,或是波士頓動力的機器狗,用一種幾乎違反物理定律的姿態後空翻、玩跑酷 。每一次,社群媒體總會掀起一陣「未來已來」、「人類要被取代了」的驚呼 。

但當你關掉螢幕,看看四周,一個巨大的落差感就來了:說好的機器人呢?為什麼大街上沒有他們的身影,為什麼我家連一件衣服都還沒人幫我摺?

這份存在於數位螢幕與物理現實之間的巨大鴻溝,源於一個根本性的矛盾:當代AI在數位世界裡聰明絕頂,卻在物理世界中笨拙不堪。它可以寫詩、可以畫畫,但它沒辦法為你端一杯水。

-----廣告,請繼續往下閱讀-----

這個矛盾,在我們常見的兩種機器人展示中體現得淋漓盡致。第一種,是動作精準、甚至會跳舞的類型,這本質上是一場由工程師預先寫好劇本的「戲」,機器人對它所處的世界一無所知 。第二種,則是嘗試執行日常任務(如開冰箱、拿蘋果)的類型,但其動作緩慢不穩,彷彿正在復健的病人 。

這兩種極端的對比,恰恰點出了機器人技術的真正瓶頸:它們的「大腦」還不夠強大,無法即時處理與學習真實世界的突發狀況 。

這也引出了本文試圖探索的核心問題:新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦,真的能終結機器人的「復健時代」,開啟一個它們能真正理解、並與我們共同生活的全新紀元嗎?

新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦 / 圖片來源:研華科技

為何我們看到的機器人,總像在演戲或復健?

那我們怎麼理解這個看似矛盾的現象?為什麼有些機器人靈活得像舞者,有些卻笨拙得像病人?答案,就藏在它們的「大腦」運作方式裡。

-----廣告,請繼續往下閱讀-----

那些動作極其精準、甚至會後空翻的機器人,秀的其實是卓越的硬體性能——關節、馬達、減速器的完美配合。但它的本質,是一場由工程師預先寫好劇本的舞台劇 。每一個角度、每一分力道,都是事先算好的,機器人本身並不知道自己為何要這麼做,它只是在「執行」指令,而不是在「理解」環境。

而另一種,那個開冰箱慢吞吞的機器人,雖然看起來笨,卻是在做一件革命性的事:它正在試圖由 AI 驅動,真正開始「理解」這個世界 。它在學習什麼是冰箱、什麼是蘋果、以及如何控制自己的力量才能順利拿起它。這個過程之所以緩慢,正是因為過去驅動它的「大腦」,也就是 AI 晶片的算力還不夠強,無法即時處理與學習現實世界中無窮的變數 。

這就像教一個小孩走路,你可以抱著他,幫他擺動雙腿,看起來走得又快又穩,但那不是他自己在走。真正的學習,是他自己搖搖晃晃、不斷跌倒、然後慢慢找到平衡的過程。過去的機器人,大多是前者;而我們真正期待的,是後者。

所以,問題的核心浮現了:我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好?

-----廣告,請繼續往下閱讀-----
我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好? / 圖片來源:shutterstock

機器人的大腦,為什麼不能放在雲端?

聽起來好像很合理,對吧?把所有複雜的運算都交給雲端最強大的伺服器,機器人本身只要負責接收指令就好了。但……真的嗎?

想像一下,如果你的大腦在雲端,你看到一個球朝你飛過來,視覺訊號要先上傳到雲端,雲端分析完,再把「快閃開」的指令傳回你的身體。這中間只要有零點幾秒的網路延遲,你大概就已經鼻青臉腫了。

現實世界的互動,需要的是「即時反應」。任何網路延遲,在物理世界中都可能造成無法彌補的失誤 。因此,運算必須在機器人本體上完成,這就是「邊緣 AI」(Edge AI)的核心概念 。而 NVIDIA  Jetson 平台,正是為了解決這種在裝置端進行高運算、又要兼顧低功耗的需求,而誕生的關鍵解決方案 。

NVIDIA Jetson 就像一個緊湊、節能卻效能強大的微型電腦,專為在各種裝置上運行 AI 任務設計 。回顧它的演進,早期的 Jetson 系統主要用於視覺辨識搭配AI推論,像是車牌辨識、工廠瑕疵檢測,或者在相機裡分辨貓狗,扮演著「眼睛」的角色,看得懂眼前的事物 。但隨著算力提升,NVIDIA Jetson 的角色也逐漸從單純的「眼睛」,演化為能夠控制手腳的「大腦」,開始驅動更複雜的自主機器,無論是地上跑的、天上飛的,都將NVIDIA Jetson 視為核心運算中樞 。

-----廣告,請繼續往下閱讀-----

但再強大的晶片,如果沒有能適應現場環境的「容器」,也無法真正落地。這正是研華(Advantech)的角色,我們將 NVIDIA Jetson 平台整合進各式工業級主機與邊緣運算設備,確保它能在高熱、灰塵、潮濕或震動的現場穩定運行,滿足從工廠到農場到礦場、從公車到貨車到貨輪等各種使用環境。換句話說,NVIDIA 提供「大腦」,而研華則是讓這顆大腦能在真實世界中呼吸的「生命支持系統」。

這個平台聽起來很工業、很遙遠,但它其實早就以一種你意想不到的方式,進入了我們的生活。

從Switch到雞蛋分揀員,NVIDIA Jetson如何悄悄改變世界?

如果我告訴你,第一代的任天堂Switch遊戲機與Jetson有相同血緣,你會不會很驚訝?它的核心處理器X1晶片,與Jetson TX1模組共享相同架構。這款遊戲機對高效能運算和低功耗的嚴苛要求,正好與 Jetson 的設計理念不謀而合 。

而在更專業的領域,研華透過 NVIDIA Jetson 更是解決了許多真實世界的難題 。例如

-----廣告,請繼續往下閱讀-----
  • 在北美,有客戶利用 AI 進行雞蛋品質檢測,研華的工業電腦搭載NVIDIA Jetson 模組與相機介面,能精準辨識並挑出髒污、雙黃蛋到血蛋 
  • 在日本,為避免鏟雪車在移動時發生意外,導入了環繞視覺系統,當 AI 偵測到周圍有人時便會立刻停止 ;
  • 在水資源珍貴的以色列,研華的邊緣運算平台搭載NVIDIA Jetson模組置入無人機內,24 小時在果園巡航,一旦發現成熟的果實就直接凌空採摘,實現了「無落果」的終極目標 。

這些應用,代表著 NVIDIA Jetson Orin™ 世代的成功,它讓「自動化」設備變得更聰明 。然而,隨著大型語言模型(LLM)的浪潮來襲,人們的期待也從「自動化」轉向了「自主化」 。我們希望機器人不僅能執行命令,更能理解、推理。

Orin世代的算力在執行人形機器人AI推論時的效能約為每秒5到10次的推論頻率,若要機器人更快速完成動作,需要更強大的算力。業界迫切需要一個更強大的大腦。這也引出了一個革命性的問題:AI到底該如何學會「動手」,而不只是「動口」?

革命性的一步:AI如何學會「動手」而不只是「動口」?

面對 Orin 世代的瓶頸,NVIDIA 給出的答案,不是溫和升級,而是一次徹底的世代跨越— NVIDIA Jetson Thor 。這款基於最新 Blackwell 架構的新模組,峰值性能是前代的 7.5 倍,記憶體也翻倍 。如此巨大的效能提升,目標只有一個:將過去只能在雲端資料中心運行的、以 Transformer 為基礎的大型 AI 模型,成功部署到終端的機器上 。

NVIDIA Jetson Thor 的誕生,將驅動機器人控制典範的根本轉變。這要從 AI 模型的演進說起:

-----廣告,請繼續往下閱讀-----
  1. 第一階段是 LLM(Large Language Model,大型語言模型):
    我們最熟悉的 ChatGPT 就屬此類,它接收文字、輸出文字,實現了流暢的人機對話 。
  2. 第二階段是 VLM(Vision-Language Model,視覺語言模型):
    AI 學會了看,可以上傳圖片,它能用文字描述所見之物,但輸出結果仍然是給人類看的自然語言 。
  3. 第三階段則是 VLA(Vision-Language-Action Model,視覺語言行動模型):
    這是革命性的一步。VLA 模型的輸出不再是文字,而是「行動指令(Action Token)」 。它能將視覺與語言的理解,直接轉化為控制機器人關節力矩、速度等物理行為的具體參數 。

這就是關鍵! 過去以NVIDIA Jetson Orin™作為大腦的機器人,僅能以有限的速度運行VLA模型。而由 VLA 模型驅動,讓 AI 能夠感知、理解並直接與物理世界互動的全新形態,正是「物理 AI」(Physical AI)的開端 。NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 。

NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 / 圖片來源:研華科技

其中,物理 AI 強調的 vision to action,就需要研華設計對應的硬體來實現;譬如視覺可能來自於一般相機、深度相機、紅外線相機甚至光達,你的系統就要有對應的介面來整合視覺;你也會需要控制介面去控制馬達伸長手臂或控制夾具拿取物品;你也要有 WIFI、4G 或 5G 來傳輸資料或和別的 AI 溝通,這些都需要具體化到一個系統上,這個系統的集大成就是機器人。

好,我們有了史上最強的大腦。但一個再聰明的大腦,也需要一副強韌的身體。而這副身體,為什麼非得是「人形」?這不是一種很沒效率的執念嗎?

為什麼機器人非得是「人形」?這不是一種低效的執念嗎?

這是我一直在思考的問題。為什麼業界的主流目標,是充滿挑戰的「人形」機器人?為何不設計成效率更高的輪式,或是功能更多元的章魚型態?

-----廣告,請繼續往下閱讀-----

答案,簡單到令人無法反駁:因為我們所處的世界,是徹底為人形生物所打造的。

從樓梯的階高、門把的設計,到桌椅的高度,無一不是為了適應人類的雙足、雙手與身高而存在 。對 AI 而言,採用人形的軀體,意味著它能用與我們最相似的視角與方式去感知和學習這個世界,進而最快地理解並融入人類環境 。這背後的邏輯是,與其讓 AI 去適應千奇百怪的非人形設計,不如讓它直接採用這個已經被數千年人類文明「驗證」過的最優解 。

這也區分了「通用型 AI 人形機器人」與「專用型 AI 工業自動化設備」的本質不同 。後者像高度特化的工具,產線上的機械手臂能高效重複鎖螺絲,但它無法處理安裝柔軟水管這種預設外的任務 。而通用型人形機器人的目標,是成為一個「多面手」,它能在廣泛學習後,理解物理世界的運作規律 。理論上,今天它在產線上組裝伺服器,明天就能在廚房裡學會煮菜 。

人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態 / 圖片來源:shutterstock

但要讓一個「多面手」真正活起來,光有骨架還不夠。它必須同時擁有強大的大腦平台與遍布全身的感知神經,才能理解並回應外在環境。人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態。但這些訊號若沒有通過一個穩定的「大腦平台」,就無法匯聚成有意義的行動。

這正是研華的角色:我們不僅把 NVIDIA Jetson Thor 這顆核心晶片包載在工業級電腦中,讓它成為能真正思考與反應的「完整大腦」,同時也提供神經系統的骨幹,將感測器、I/O 介面與通訊模組可靠地連結起來,把訊號傳導進大腦。你或許看不見研華的存在,但它實際上遍布在機器人全身,像隱藏在皮膚之下的神經網絡,讓整個身體真正活過來。

但有了大腦、有了身體,接下來的挑戰是「教育」。你要怎麼教一個物理 AI?總不能讓它在現實世界裡一直摔跤,把一台幾百萬的機器人摔壞吧?

打造一個「精神時光屋」,AI的學習速度能有多快?

這個問題非常關鍵。大型語言模型可以閱讀網際網路上浩瀚的文本資料,但物理世界中用於訓練的互動資料卻極其稀缺,而且在現實中反覆試錯的成本與風險實在太高 。

答案,就在虛擬世界之中。

NVIDIA Isaac Sim™等模擬平台,為這個問題提供了完美的解決方案 。它能創造出一個物理規則高度擬真的數位孿生(Digital Twin)世界,讓 AI 在其中進行訓練 。

這就像是為機器人打造了一個「精神時光屋」 。它可以在一天之內,經歷相當於現實世界千百日的學習與演練,從而在絕對安全的環境中,窮盡各種可能性,深刻領悟物理世界的定律 。透過這種「模擬-訓練-推論」的 3 Computers 閉環,Physical AI (物理AI) 的學習曲線得以指數級加速 。

我原本以為模擬只是為了節省成本,但後來發現,它的意義遠不止於此。它是在為 AI 建立一種關於物理世界的「直覺」。這種直覺,是在現實世界中難以透過有限次的試錯來建立的。

所以你看,這趟從 Switch 到人形機器人的旅程,一幅清晰的未來藍圖已經浮現了。實現物理 AI 的三大支柱已然齊備:一個劃時代的「AI 大腦」(NVIDIA Jetson Thor)、讓核心延展為「完整大腦與神經系統」的工業級骨幹(由研華 Advantech 提供),以及一個不可或缺的「教育環境」(NVIDIA Isaac Sim 模擬平台) 。

結語

我們拆解了那些酷炫機器人影片背後的真相,看見了從「自動化」走向「自主化」的巨大技術鴻溝,也見證了「物理 AI」時代的三大支柱——大腦、身軀、與教育——如何逐一到位 。

專家預測,未來 3 到 5 年內,人形機器人領域將迎來一場顯著的革命 。過去我們只能在科幻電影中想像的場景,如今正以前所未有的速度成為現實 。

這不再只是一個關於效率和生產力的問題。當一台機器,能夠觀察我們的世界,理解我們的語言,並開始以物理實體的方式與我們互動,這將從根本上改變我們與科技的關係。

所以,最後我想留給你的思想實驗是:當一個「物理 AI」真的走進你的生活,它不只是個工具,而是一個能學習、能適應、能與你共同存在於同一個空間的「非人智慧體」,你最先感受到的,會是興奮、是便利,還是……一絲不安?

這個問題,不再是「我們能否做到」,而是「當它發生時,我們準備好了嗎?」

研華已經整裝待發,現在,我們與您一起推動下一代物理 AI 與智慧設備的誕生。
https://bit.ly/4n78dR4

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

6
0

文字

分享

0
6
0
量子革命來襲!一分鐘搞定傳統電腦要花數千萬年的難題!你的電腦是否即將被淘汰?
PanSci_96
・2024/10/17 ・2050字 ・閱讀時間約 4 分鐘

量子電腦:解碼顛覆未來科技的關鍵

2023 年,Google 發表了一項引人注目的研究成果,顯示人類現有最強大的超級電腦 Frontier 需要花費 47 年才能完成的計算任務,Google 所研發的量子電腦 Sycamore 只需幾秒鐘便能完成。這項消息震驚了科技界,也再次引發了量子電腦的討論。

那麼,量子電腦為什麼如此強大?它能否徹底改變我們對計算技術的認知?

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

量子電腦是什麼?

量子電腦是一種基於量子力學運作的新型計算機,它與我們熟悉的傳統電腦截然不同。傳統電腦的運算是建立在「位元」(bits)的基礎上,每個位元可以是 0 或 1,這種二進位制運作方式使得計算過程變得線性且單向。然而,量子電腦使用的是「量子位元」(qubits),其運算邏輯則是基於量子力學中的「疊加」與「糾纏」等現象,這使得量子位元能同時處於 0 和 1 的疊加狀態。

這意味著,量子電腦能夠在同一時間進行多個計算,從而大幅提高運算效率。對於某些非常複雜的問題,例如氣候模型、金融分析,甚至質因數分解,傳統電腦可能需要數千年才能完成的運算任務,量子電腦只需數分鐘甚至更短時間便可完成。

-----廣告,請繼續往下閱讀-----

Google、IBM 和量子競賽

Google 和 IBM 是目前在量子計算領域中競爭最為激烈的兩大科技公司。Google 的 Sycamore 量子電腦已經展示出極高的計算速度,令傳統超級電腦相形見絀。IBM 則持續投入量子電腦的研究,並推出了超過 1000 個量子位元的系統,預計到 2025 年,IBM 的量子電腦將擁有超過 4000 個量子位元。

除此之外,世界各國和企業都爭相投入這場「量子霸權」的競賽,台灣的量子國家隊也不例外,積極尋求量子計算方面的突破。這場量子競賽,將決定未來的計算技術格局。

量子電腦的核心原理

量子電腦之所以能如此快速,是因為它利用了量子力學中的「疊加態」和「糾纏態」。簡單來說,傳統電腦的位元只能是 0 或 1 兩種狀態,而量子位元則可以同時處於 0 和 1 兩種狀態的疊加,這使得量子電腦可以在同一時間內同時進行多次計算。

舉例來說,如果一台電腦需要處理一個要花 330 年才能解決的問題,量子電腦只需 10 分鐘便可解決。如果問題變得更複雜,傳統電腦需要 3300 年才能解決,量子電腦只需再多花一分鐘便能完成。

-----廣告,請繼續往下閱讀-----

此外,量子電腦中使用的量子閘(quantum gates)類似於傳統電腦中的邏輯閘,但它能進行更複雜的運算。量子閘可以改變量子位元的量子態,進而完成計算過程。例如,Hadamard 閘能將量子位元轉變為疊加態,使其進行平行計算。

量子電腦能大幅縮短複雜問題的計算時間,利用量子閘進行平行運算。圖/envato

計算的效率

除了硬體技術的進步,量子電腦的強大運算能力也依賴於量子演算法。當前,最著名的兩種量子演算法分別是 Grover 演算法與 Shor 演算法。

Grover 演算法主要用於搜尋無序資料庫,它能將運算時間從傳統電腦的 N 遞減至 √N,這使得資料搜索的效率大幅提升。舉例來說,傳統電腦需要花費一小時才能完成的搜索,量子電腦只需幾分鐘甚至更短時間便能找到目標資料。

Shor 演算法則專注於質因數分解。這對於現代加密技術至關重要,因為目前網路上使用的 RSA 加密技術正是基於質因數分解的困難性。傳統電腦需要數千萬年才能破解的加密,量子電腦只需幾秒鐘便可破解。這也引發了全球對後量子密碼學(PQC)的研究,因為一旦量子電腦大規模應用,現有的加密系統將面臨極大的威脅。

-----廣告,請繼續往下閱讀-----

量子電腦的挑戰:退相干與材料限制

儘管量子電腦具有顛覆性的運算能力,但其技術發展仍面臨諸多挑戰。量子位元必須保持在「疊加態」才能進行運算,但量子態非常脆弱,容易因環境中的微小干擾而坍縮成 0 或 1,這種現象被稱為「量子退相干」。量子退相干導致量子計算無法穩定進行,因此,如何保持量子位元穩定是量子電腦發展的一大難題。

目前,科學家們正在探索多種材料和技術來解決這一問題,例如超導體和半導體技術,並嘗試研發更穩定且易於量產的量子電腦硬體。然而,要實現大規模的量子計算應用,仍需克服諸多技術瓶頸。

量子電腦對未來生活的影響

量子電腦的快速發展將為未來帶來深遠的影響。它不僅將推動科學研究的進步,例如藥物設計、材料科學和天文物理等領域,還可能徹底改變我們的日常生活。例如,交通運輸、物流優化、金融風險管理,甚至氣候變遷預測,都有望因量子計算的應用而變得更加精確和高效。

然而,量子計算的發展也帶來了一些潛在的風險。隨著量子電腦逐漸成熟,現有的加密技術可能會被徹底摧毀,全球的資訊安全體系將面臨巨大挑戰。因此,各國政府和企業已經開始研究新的加密方法,以應對量子時代的來臨。

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----

討論功能關閉中。

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

-----廣告,請繼續往下閱讀-----

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
-----廣告,請繼續往下閱讀-----

討論功能關閉中。

賴昭正_96
48 篇文章 ・ 59 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此獲有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪,IBM顧問研究化學家退休 。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲它轉載我的科學月刊上的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」。