2

1
0

文字

分享

2
1
0

正確劑量在哪裡?絕對難不倒你!AI 在醫療領域的各項應用——《AI 醫療》

PanSci_96
・2021/01/09 ・2296字 ・閱讀時間約 4 分鐘 ・SR值 578 ・九年級

國小高年級科普文,素養閱讀就從今天就開始!!
  • 作者/Eric Topol,本文摘自《AI 醫療》,旗標出版,2020 年 11 月 20 日

利用演算法搭配顯微鏡影像進行高通量藥物測試

影像處理公司 Recursion Pharmaceuticals 利用演算法及自動顯微鏡,針對細胞和細胞核的尺寸與形狀等極詳細的特徵,進行人體細胞的高通量藥物測試。他們建立了超過 2,000 個分子的模型,來觀察其中有哪些可以將基因疾病模型的病態細胞轉變成看起來較健康的細胞。該公司已利用這種策略辨識出至少 15 種新的潛在治療方式,其中一種針對腦部海綿狀血管畸形 (cerebral cavernous malformation) 的治療方法已進入臨床試驗階段。

利用演算法及自動顯微鏡,能針對細胞和細胞核的尺寸與形狀等極詳細的特徵,進行人體細胞的高通量藥物測試。圖/pixabay

Deep Genomics 則從名稱即可看出端倪,是一間針對基因體錨定 (anchoring) 方法進行深度學習的公司。這個位於多倫多、由 Brendan Frey 主導的團隊,曾於 2014 年就人類剪接密碼 (splicing code)1 發表了一篇令人印象深刻的論文,為泛自閉症障礙2和脊髓性肌肉萎縮症 (spinal muscular atrophy)3 等疾病的病患提供了數千種潛在標的 (target)4

自動化藥物開發過程目標是:縮減找出潛在藥物標的到研發出候選藥物的時間

Atomwise 公司利用深度學習演算法篩選了數百萬個分子以發展藥物開發計畫,至 2017 年底為止,已成立超過 27 個計畫,治療範圍包含伊波拉病毒感染 (Ebola)5 與多發性硬化症 (multiple sclerosis)6 等疾病。該公司的神經網路也藉由搭配 3D 模型,提出了一份包含 72 種最有可能與特定疾病在分子層面發生良好交互作用的藥物列表。瑞士聯邦理工學院 (Swiss Federal Institutes of Technology) 的 Gisbert Schneider 指出:「自動化藥物開發的概念可協助大幅減少藥物化學 (medicinal chemistry) 計畫所需測試的化合物數量,同時為調適性分子設計 (adaptive molecular design) 建立一個理性、無偏見的基礎。」

這些新方法也推動了一些新的公私合夥關係 (private-public partnership)。「加速藥物醫療機會聯盟」(Accelerating Therapeutics for Opportunities in Medicine) 為其中之一,簡稱 ATOM。此聯盟集合了數個學術中心,如杜克大學、杜蘭大學,與 Merck、Abbvie 及 Monsanto 等製藥公司共同開發、測試與驗證跨領域的癌症藥物開發方式,將現代科學、科技與工程學、超級計算 (supercomputing) 模擬、資料科學與 AI 高度整合至一個藥物開發平台,希望最終可與整個藥物研發社群共享。ATOM 的目標是縮減從辨識出潛在藥物標的(drug target,藥物作用的目標)到研發出可擊中標的之候選藥物所需的時間。這段過程通常最快也需要 4 年,ATOM 希望能夠壓低至 1 年。Project Survival 是一個由 BERG Health 資助的公私聯營單位 (public-private consortium),他們收集了癌症病患的生物樣本 (biological sample),並在一項為期 7 年的計畫中,仔細分析檢測與每位病患臨床資訊息息相關的整合資料,以促進生物標記探索開發 (biomarker discovery) 與早期發現。

預測實驗性藥物 (experimental drug) 的正確劑量

AI 在此領域的用途不只有藥物開發,還可預測實驗性藥物 (experimental drug) 的正確劑量。由於最佳藥物劑量可能取決於每個個體身上的許多變數,如年齡、性別、體重、基因體 (genetics)、蛋白質體學及腸道微生物體等,因此是建立模型與使用深度學習演算法的理想題材。不過藥物之間產生交互作用的可能性,也提高了確定正確劑量的困難度。目前已有多間學術中心採取這種預測方式,包括加州大學洛杉磯分校、史丹佛大學、加州大學舊金山分校、維吉尼亞理工大學 (Virginia Tech) 和堪薩斯大學 (University of Kansas)。正如維吉尼亞理工大學的 Josep Bassaganya-Riera 所言:「每個人都會有一套自己的參數集,但與其分析每一項特徵,我們更應該了解的是由各項特徵混合而成的獨特組合所代表的意義。而機器學習能夠幫助我們做到這一點。」

運用 AI 建立模型與使用深度學習演算法能幫助學者更快速找到實驗性藥物的正確劑量。圖/pixabay

目前的確有許多針對 AI 與藥物開發的炒作,如「AI 成為救星!可望於阿茲海默症的藥物開發有所突破」等新聞。或是類似 BenevolentAI 之前的宣稱:「可以將藥物研發時程縮短 4 年,並將效率提升至高出製藥業界平均的 60%」。但唯有時間才能證明,這些致力於加速藥物開發的各種方法,是否真的能夠實現。

註解

  1. 剪接(splicing,又稱拼接),是一種基因重組現象。在分子生物學中,主要是指細胞核內基因資訊在轉錄過程中或是在轉錄過後的一種修飾。
  2. 泛自閉症障礙 (Autism Spectrum Disorder, ASD) 指兒童早期即出現社會互動、溝通表達的困難,對某些事物有強烈的執著性、要求同一性等現象。再依兒童語言能力,從完全無法用口語表達到流利的語言,區分成輕、中、重度障礙。
  3. 脊髓性肌肉萎縮症 (spinal muscular atrophy, SMA) 屬於體染色體隱性遺傳疾病,因 SMN 基因缺失而造成脊髓的前角運動神經元漸進性退化,使得肌肉逐漸軟弱無力、萎縮的一種疾病,但不影響智力。
  4. 藥物標的為藥物作用的目標,例如找出最可能導致疾病的蛋白質。
  5. 伊波拉病毒感染 (Ebola) 為伊波拉病毒所引起的嚴重急性疾病,其初期症狀為突然出現高燒、嚴重倦怠、肌肉痛、頭痛等,接著出現嘔吐、腹瀉、腹痛、皮膚斑點狀丘疹與出血現象。重症者常伴有肝臟受損、腎衰竭、中樞神經損傷、休克併發多重器官衰竭。
  6. 多發性硬化症 (multiple sclerosis,MS) 發病原因不明,病灶位於腦部和脊髓,是常見的中樞神經系統非外傷性疾病。正常的中樞神經纖維表面覆蓋了一層神經髓鞘,具有神經傳遞和保護神經纖維的作用。如果人體自身免疫系統攻擊和破壞髓鞘就會導致多發性硬化症的發生。在自身免疫反應引起的炎症停止後,無數受到破壞的神經纖維所形成的疤痕,稱為「硬化」。
——本文摘自《AI 醫療 DEEP MEDICINE》,旗標出版,2020 年 11 月 20 日
文章難易度
所有討論 2
PanSci_96
1164 篇文章 ・ 1508 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

3
0

文字

分享

0
3
0
人造腦挑戰 AI!培養皿中的腦組織+腦機介面能打敗電腦嗎?
PanSci_96
・2023/05/27 ・3178字 ・閱讀時間約 6 分鐘

2023 年 2 月底, 約翰霍普金斯大學教授 Thomas Hartung 帶領研究團隊,發表了「類器官智慧」(Organoid intelligence , OI)的研究成果,希望利用腦類器官加上腦機介面,打造全新的生物計算技術。

我們終於要製造人工大腦了嗎?OI 和 AI,誰會成為未來主宰?

類器官智慧 OI 是什麼?目標為何?

2023 年的現在,AI 就已展現了不少驚人的實際成果;相較之下, OI 仍只是一個剛起步的計畫,甚至連名稱都與 2018 年美國《自然—物理學》期刊專欄作家、物理學家布坎南以 Organoids of intelligence 作為標題的文章幾乎一樣。

類器官智慧、Organoid intelligence、OI 是個很新的跨領域名詞,同時結合了「腦類器官」和「腦機介面」兩個領域的技術。

簡單來說,腦類器官就是指透過培養或誘導多能幹細胞(iPSCs),在模擬體內環境的旋轉生物反應器中,產生的腦組織。這項聽起來好像只會出現在科幻電影裡的技術,確實已經存在。

最早的腦類器官是在 2007 年,日本 RIKEN 腦研究所的笹井芳樹和渡辺毅一的研究團隊,成功從人類胚胎幹細胞培養出前腦組織。第一個具有不同腦區的 3D 腦類器官則是發表在 2013 年的《Nature》期刊,由奧地利分子技術研究所的尤爾根.科布利希和瑪德琳.蘭開斯特研究團隊成功建立。

腦類器官的出現,在生物與醫學研究中有重大意義,這代表未來科學家們若需要進行大腦相關的研究,再也不用犧牲實驗動物或解剖大體老師來取得人類大腦,只需要在培養皿就製造出我們要的大腦即可。

儘管培養皿上的組織確實是大腦組織,但不論是在大小、功能,以及解剖構造上,至今的結果仍遠遠不及我們自然發育形成的大腦。因此要達到 OI 所需要的「智慧水準」,我們必須擴大現有的腦類器官,讓他成為一個更複雜、更耐久的 3D 結構。

要達到 OI 所需的「智慧水準」,必須擴大現有的腦類器官,成為一個更複雜的 3D 結構。圖/GIPHY

而這個大腦也必須含有與學習有關的細胞和基因,並讓這些細胞和 AI 以及機器學習系統相連接。透過新的模型、演算法以及腦機介面技術,最終我們將能了解腦類器官是如何學習、計算、處理,以及儲存。

OI 是 AI 的一種嗎?

OI 能不能算是 AI 的一種呢?可說是,也不是。

AI 的 A 指的是 Artificial,原則上只要是人為製造的智慧,都可以稱為 AI。OI 是透過人為培養的生物神經細胞所產生的智慧,所以可以說 OI 算是 AI 的一種。

但有一派的人不這麼認為。由於目前 AI 的開發都是透過數位電腦,因此普遍將 AI 看做數位電腦產生的智慧—— AI 和 OI 就好比數位對上生物,電腦對上人腦。

OI 有機會取代 AI ?它的優勢是什麼?

至於為何電腦運算的準確度和運算速度遠遠高於人腦,最主要原因是電腦的設計具有目的性,就是要做快速且準確的線性運算。反之,大腦神經迴路是網狀、活的連結。

人類本身的基因組成以及每天接收的環境刺激,不斷地改變著大腦,每一分每一秒,我們的神經迴路都和之前的狀態不一樣,所以即使就單一的運算速度比不上電腦,但人腦卻有著更高學習的效率、可延展性和能源使用效率。在學習一個相同的新任務時,電腦甚至需要消耗比人類多 100 億倍的能量才能完成。

神經網路接受著不同刺激。圖/GIPHY

這樣看來,至少 OI 在硬體的效率與耗能上有著更高優勢,若能結合 AI 與 OI 優點,把 AI 的軟體搭載到 OI 的硬體上,打造完美的運算系統似乎不是夢想。

但是 OI 的發展已經到達哪裡,我們還離這目標多遠呢?

OI 可能面臨的阻礙及目前的發展

去年底,澳洲腦科學公司 Cortical Labs 的布雷特.卡根(Brett Kagan)帶領研究團隊,做出了會玩古早電子遊戲《乓》(Pong)的培養皿大腦—— DishBrain。這個由 80 萬個細胞組成,與熊蜂腦神經元數量相近的 DishBrain,對比於傳統的 AI 需要花超過 90 分鐘才能學會,它在短短 5 分鐘內就能掌握玩法,能量的消耗也較少。

現階段約翰霍普金斯動物替代中心等機構,其實只能生產出直徑大小約 500 微米,也就是大約一粒鹽巴大小的尺寸的腦類器官。當然,這樣的大小就含有約 10 萬個細胞數目,已經非常驚人。雖然有其他研究團隊已能透過超過 1 年的培養時間做出直徑 3~5 毫米的腦類器官,但離目標細胞數目 1000 萬的腦類器官還有一段距離。

為了實現 OI 的目標,培養更大的 3D 腦類器官是首要任務。

OI 的改良及多方整合

腦類器官畢竟還是個生物組織,卻不像生物大腦有著血管系統,能進行氧氣、養分、生長因子的灌流並移除代謝的廢物,因此還需要有更完善的微流體灌流系統來支持腦類器官樣本的擴展性和長期穩定狀態。

在培養完成腦類器官以及確定能使其長期存活後,最重要的就是進行腦器官訊息輸入以及反應輸出的數據分析,如此我們才能得知腦類器官如何進行生物計算。

受到腦波圖(EEG)紀錄的啟發,研究團隊將研發專屬腦類器官的 3D 微電極陣列(MEA),如此能以類似頭戴腦波電極帽的方式,把整個腦類器官用具彈性且柔軟的外殼包覆,並用高解析度和高信噪比的方式進行大規模表面刺激與紀錄。

研究團隊受腦波圖(EEG)紀錄的啟發。圖/Envato Elements

若想要進一步更透徹地分析腦類器官的訊號,表面紀錄是遠遠不夠的。因此,傷害最小化的的侵入式紀錄來獲取更高解析度的電生理訊號是非常重要的。研究團隊將使用專門為活體實驗動物使用的矽探針Neuropixels,進一步改良成類腦器官專用且能靈活使用的裝置。

正所謂取長補短,欲成就 OI,AI 的使用和貢獻一點也不可少。

下一步,團隊會將進行腦機介面,在這邊植入的腦則不再是人類大腦,而是腦類器官。透過 AI 以及機器學習來找到腦類器官是如何形成學習記憶,產生智慧。過程中由於數據資料將會非常的龐大,大數據的分析也是無可避免。

隨著 AI 快速發展的趨勢,OI 的網路聲量提升不少,或許將有機會獲得更多的關注與研究補助經費,加速研究進度。更有趣的是,不僅有一批人希望讓 AI 更像人腦,也有另一批人想要讓 OI 更像電腦。

生物、機械與 AI 的界線似乎會變得越來越模糊。

OI=創造「生命」?

生物、機械與 AI 的界線越來越模糊。圖/Envato Elements

講到這裡,不免讓人擔心,若有一天 OI 真的產生智慧,我們是否就等於憑空創造出了某種「生命」?這勢必將引發複雜的道德倫理問題。

雖然研究團隊也強調, OI 的目標並不是重新創造人類的意識,而是研究與學習、認知和計算相關的功能,但「意識究竟是什麼」,這個哲學思辨至今都還未有結論。

到底懂得「學習」、「計算」的有機體能算是有意識嗎?如果將視覺腦機介面裝在 OI 上,它是否會發現自己是受困於培養皿上,被科學家們宰割的生物計算機?

不過這些問題不僅僅是 OI 該擔心的問題,隨著人工智慧的發展,GPT、Bing 和其他由矽構成的金屬智慧,隨著通過一個又一個智力、能力測試,也終將面臨相應的哲學與倫理問題。

最後,Neuralink 的執行長馬斯克說過(對,又是他 XD),人類要不被 AI 拋下,或許就得靠生物晶片、生物技術來強化自己。面對現在人工智慧、機械改造、生物晶片各種選擇擺在眼前,未來你想以什麼樣的型態生活呢?

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

PanSci_96
1164 篇文章 ・ 1508 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

3
2

文字

分享

0
3
2
透過 AI 繪圖原理,你就知道怎麼訓練做圖生成!
PanSci_96
・2023/04/29 ・2014字 ・閱讀時間約 4 分鐘

國小高年級科普文,素養閱讀就從今天就開始!!

AI 生圖是透過訓練模型學習自行生成圖像,而電腦繪圖則是由使用者透過軟體或工具手動繪製圖像。

儘管可能較缺乏人工繪圖的細節與創意,但是都是由 AI 自己生成,每張絕無僅有,這樣應該也算是有些創意吧?

究竟這個「安能辨我是 AI」的新時代,到底是怎麼突然降臨的呢?

現代魔法師的誕生

現在夯、猶如魔法的 Midjourney,使用者針對想要創作的內容和風格,給出關鍵字如 Hyper realistic、Xerox Art、masterpiece、underwater,以及畫面比例等參數,甚至是特定藝術家的名字,大約 30 秒到 1 分鐘,就能完成作品,對一般民眾來極容易上手。

如果生成出不對勁的怪圖,只要請它參照範例、補充關鍵字,或是你本身就有一點修圖能力,就可以產出高品質的美圖。因此,我們也可以說這是一種能和 AI 繪師對話的語言介面,新的職業「AI 溝通師」也隨之出現。

AI 生圖其實也不是什麼新技術,早就有人採用一種名為 GAN 的對抗式生成網路的演算法來生成圖片。在 2018 年也有人用來生成某種藝術作品,並拍賣出高價,當然在當時與其說是美麗的藝術,其實更多是個噱頭。

從模仿到創造

為了達成「創新」,AI 研究者放棄了 GAN 中讓 AI 互相競爭找出「最佳解」的對抗式思維,提出一種名為「Diffusion model」擴散模型的新概念。

如果觀察 Stable diffusion 或 Midjourney 生圖過程,可以發現到,圖片會從一團什麼都沒有的雜訊開始,逐漸出現五官、輪廓等特徵,最後才變成有著豐富細節的精緻畫作。

擴散模型的去噪過程。圖/維基百科

Diffusion model 在訓練時則是會先看到一張完整照片,接著依照馬可夫鏈的過程,以高斯分布的方式往圖片上加入隨機噪點。待整張圖變成一團雜訊,等它學會從一張圖到混亂雜訊的過程後,再習得如何從混亂雜訊中生成圖的能力;於每一步加噪的過程中學會降噪,使用時間鉗形攻勢,完成雙向學習。

Diffusion model 在接下來的訓練中,會不斷調整自己的參數,學習自己生成圖片。這個訓練好的 Diffusion model 其實就像個大型藍色窗簾機器人,從雜訊中抓出特定特徵,例如看到兩點一線,就說是人類的眼睛與嘴巴,接著漸漸畫出人類的面貌。

過程中還會加上一個名為「變方自編碼器」(Variational Auto-encoder ,VAE)的加持,使它輸出的不只是原本的訓練或輸入的圖片,而是真正能夠「無中生有」的連續性畫素,而這就是擴散模型被稱為生成模型的原因。另外,隨著步驟越多,解析度或細節可以更高,每一次相同的關鍵字或輸入圖檔,經過模型輸出的結果都有著不確定性。

從二維到三維

當你以為畫奇幻插畫和二次元美少女就是極限了,最新進展絕對更令人大開眼界!

前陣子開發出來的模型,能讓使用者自己上傳作品或相同風格的畫風,來產出更多樣化的素材。例如不久前在日本被下架的 mimic;而 DALL-E 則推出 Outpainting 功能,例如輸入知名畫作,它會替其擴張圖片,算出可能的背景樣式。

DALL-E 算出知名畫作《戴珍珠耳環的少女》的可能背景樣式。圖/OpenAI

若再將繪圖 AI 訓練到不只能輸出圖片,甚至能輸出擬真的照片呢?已經有人這麼做了。

最近最紅的生成模型,可以把疫情期間我們一張張戴口罩的照片全自動 PS 出嘴巴鼻子、輕易更換穿搭風格等。新出的 AI 繪圖軟體 ControlNET,甚至只要提供骨架甚至幾個線條,就能繪出相同姿勢的人物圖像。

如果我們能夠生成無法辨別的真人外觀,再搭配已經有的 3D 骨架建模生成模型,豈不是可以達成科幻電影「虛擬偶像(Simone,2002)」的劇情,生成一個假演員來演戲拍廣告!

這些 AI 生成模型其實都只是為我們所用的工具,這波 AI 繪圖師的加入,肯定會大量取代中階以下的商用和插畫家的需求,並解決業主和設計師之間的溝通成本,各家美術或遊戲公司紛紛開出 AI 溝通師的職缺。追隨主流審美的人類繪師受創最深,而對已有強烈藝術風格的大師或非主流藝術家來說,目前相對不受影響。

使用 AI 完成的藝術作品。圖/GIPHY

AI 繪圖工具的出現,掀起了一股巨浪。如今不僅有人能利用 AI 生成作品得獎,也開始能看到有人使用 AI 創作進行營利、販售。

然而創作領域中模仿、挪用、抄襲、致敬等等的問題在 AI 出現以前就是個難解之題,來到大生成時代,這類問題只會越來越多,我們又該如何面對它呢?

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

PanSci_96
1164 篇文章 ・ 1508 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

2
0

文字

分享

0
2
0
Google Tensor 處理器是什麼?厲害在哪?
PanSci_96
・2023/04/08 ・2920字 ・閱讀時間約 6 分鐘

國小高年級科普文,素養閱讀就從今天就開始!!

 Google 新出的 Pixel 7 Pro,其核心繼續沿用上一代開始自行研發的晶片,並且升級為 Google Tensor G2。

由 Google 開發、號稱專為 AI 設計打造的 Tensor 晶片,尤其著重在 TPU。打開處理器 Google Tensor 一探究竟,裡面放著 CPU、GPU,以及擁有 AI 運算能力的 TPU(Tensor Processing Unit)張量處理單元。

什麼是 TPU?與 CPU、GPU 有什麼不同?要了解 TPU,先來看看他的前輩 CPU 和 GPU 是如何運作的吧!

TPU 處理器晶片是什麼?先從了解 CPU 開始!

不論手機、電腦還是超級電腦,當代計算機的通用架構,都是使用以圖靈機為概念設計出來的馮紐曼架構,這個程式指令記憶體和資料記憶體合併在一起的概念架構,從 1945 年提出後就一直被使用到現在。

除了輸入輸出設備外,架構中還包含了三大結構:記憶體 Memory、控制單元 CU 與算術邏輯單元 ALU。在電腦主機中,控制單元 CU 和算術邏輯單元 ALU 都被包在中央處理器 CPU(Central Processing Unit)中;記憶體則以不同形式散佈,依存取速度分為:暫存器(Register)、快取(Cache)、主記憶體(Main memory)與大量儲存裝置(Mass storage)。

馮紐曼架構(Von Neumann architecture)。圖/Wikimedia Commons

算術邏輯單元 ALU 負責運算,透過邏輯閘進行加減乘除、邏輯判斷、平移等基礎運算,透過一次次的運算,完成複雜的程式。有了精密的算術邏輯單元,還有一個很重要的,也是控制單元 CU 最主要的工作——流程管理。

為了加速計算,CU 會分析任務,把需要運行的資料與程式放進離 ALU 最近、存取速度最快的暫存器中。在等 ALU 完成任務的同時,CU 會判斷接下來的工作流程,事先將後面會用到的資料拉進快取與主記憶體,並在算術邏輯單元完成任務後,安排下一個任務給它,然後把半完成品放到下一個暫存器中等待下一步的運算。

CPU 就像是一間工廠,ALU 則是負責加工的機器,CU 則作為流水線上的履帶與機械手臂,不斷將原料與半成品運向下一站,同時控制工廠與倉庫間的物流運輸,讓效率最大化。

然而隨著科技發展,人們需要電腦處理的任務量越來越大。就以照片為例,隨手拍的一張 1080p 相片就含有1920*1080 共 2073600 個像素,不僅如此,在彩色相片中,每一個像素還包含 R、G、B 三種數值,如果是有透明度的 PNG 圖片,那還多一個 Alpha 值(A值),代表一張相片就有 800 萬個元素要做處理,更不用說現在的手機很多都已經能拍到 4K 以上的畫質,這對於 CPU 來說實在過於辛苦。

很多照片都有 4K 以上的畫質,這對於 CPU 來說實在過於辛苦。圖/Envato Elements

由於 CPU 只有一條生產線,能做的就是增加生產線的數量;工程師也發現,其實在影像處理的過程中,瓶頸不是在於運算的題目過於困難,而是工作量非常龐大。CPU 是很強沒錯,但處理量能不夠怎麼辦?

那就換狂開產線的 GPU!

比起增加算術邏輯單元的運算速度,不如重新改建一下原有的工廠!在廠房中盡可能放入更多構造相同的流水線,而倉庫這種大型倉儲空間則可以讓所有流水線共同使用,這樣不僅能增加單位體積中的運算效能,在相同時間內,也可以產出更多的東西,減少一張相片運算的時間。

顯卡大廠 NVIDIA 在 1999 年首次提出了將圖形處理器獨立出來的構想,並發表了第一個為加速圖形運算而誕生、歷史上第一張顯卡—— GPU(Graphics Processing Unit)NVIDIA GeForce 256。

在一顆 GPU 中會有數百到數千個 ALU,就像是把許多小 CPU 塞在同一張顯卡上;在影像處理的過程中,CU 會把每一格像素分配給不同的 ALU,當處理相同的工作時,GPU 就可以大幅提升處理效率。

這也是為什麼加密貨幣市場中的「礦工」們,大部分都以 GPU 作為挖礦工具;由於礦工們實際在做的計算並不困難,重點是需要不斷反覆計算,處理有龐大工作量的「工作量證明機制」問題,利用 GPU 加速就是最佳解。

不過,影像處理技術的需求隨著時代變得更加複雜,這就是人工智慧的範疇了。以一張相片來說,要能認出是誰,就需要有一道處理工序來比較、綜合諮詢以進行人臉辨識;如果要提升準度,就要不斷加入參數,像是眼鏡的有無、臉上的皺紋、髮型,除此之外還要考慮到人物在相片中的旋轉、光線造成的明暗對比等。

人臉辨識是人工智慧範疇。圖/Envato Elements

每一次的參數判斷,在機器學習中都是一層不同的過濾器(filter)。在每一次計算中,AI 會拿著這個過濾器,在相片上從左至右,從上至下,去找相片中是否有符合這個特徵;每一次的比對,就會給一個分數,總分越高,代表這附近有越高的機率符合過濾器想找的對象,就像玩踩地雷一樣,當這邊出現高分數的時候,就是找到目標了。

而這種方式被稱為卷積神經網路(Convolutional Neural Networks, CNN),為神經網路的一種,被大量使用在影像辨識中。除了能增進影像辨識的準確度外,透過改變過濾器的次數、移動時的快慢、共用的參數等,還可以減少矩陣的運算次數、加快神經網路的計算。

然而即便如此,工作量還是比傳統影像處理複雜多了。為應對龐大的矩陣運算,我們的主角 TPU(Tensor Processing Unit)張量處理單元就誕生了!

TPU 如何優化 AI 運算

既然 CNN 的關鍵就是矩陣運算,那就來做一個矩陣運算特別快的晶片吧!

TPU 在處理矩陣運算上採用脈動陣列(Systolic Array)的方式;比起 GPU 中每個 ALU 都各做各的,在 TPU 裡面的資料會在各個 ALU 之間穿梭,每個 ALU 專門負責一部分,共同完成任務。這麼做有兩個好處,一是每個人負擔的工作量更少,代表每個 ALU 的體積可以再縮小;二是半成品傳遞的過程可以直接在 ALU 之間進行,不再需要把半成品借放在暫存區再拿出來,大幅減少了儲存與讀取的時間。

在這樣的架構下,比起只能塞進約 4000 個核心的 GPU,TPU 可以塞進 128*128 共 1.6 萬個核心,加上每個核心負擔的工作量更小,運算速度也就更快、耗電量更低。我們經常使用的 google 服務,許多也是用了 TPU 做優化,像是本身就是全球最大搜尋引擎的 google、google 翻譯、google map 上都大量使用了 TPU 和神經網路來加速。

Google 服務大量使用了 TPU 和神經網路來加速。圖/GIPHY

2021 年,Google 更把 TPU 導入到自家手機產品中,也就是前面我們提到的 Google Tensor;今年更是在 Pixel 7 中放入升級後的 Google Tensor G2。

Google 表示新款人工智慧晶片可以加快 60% 的機器學習速度,也加快語音助理的處理速度與增加功能、在通話時去除雜音增進通話品質等,不過最有感的還是圖像處理,像是透過 AI 多了修復模糊處理,不僅可以修正手震,還能把舊相片也變得清晰。

現在新款的手機為凸顯不同,越來越強調自家晶片設計與效能的差異;除了 Google 的 TPU 外,其他公司也朝著 AI 晶片的方向前進,包括蘋果、高通、聯發科、中國的寒武紀等,也都發表了自行研發的神經網路處理器 NPU。

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

PanSci_96
1164 篇文章 ・ 1508 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。