0

1
0

文字

分享

0
1
0

藥物設計開外掛!深度學習如何應用在新藥開發?

研之有物│中央研究院_96
・2018/08/28 ・4913字 ・閱讀時間約 10 分鐘 ・SR值 561 ・九年級

-----廣告,請繼續往下閱讀-----

  • 採訪編輯|柯旂 美術編輯|張語辰

當藥物設計碰上電腦運算──節省成本又降低風險

中研院應用科學研究中心、生物醫學科學研究所合聘的林榮信研究員,同時也是台大醫學院藥學系與長庚大學工學院的合聘教授,與團隊以分子動力學、統計物理、結構生物等學問為法,藉由電腦的高速運算能力,模擬藥物分子如何與體內的標靶分子作用。此舉不但能縮減藥物研發的時間及成本,也有助了解藥物在人體中的生化反應,降低藥害風險。

每種藥物,都是得來不易的基礎研究與後續研發成果。有些要十年、有些要等二十年、有些直到現在還在等。圖片來源/iStock

現代的藥物研發流程,可簡要地敘述為以下步驟:1. 先透過大規模基因體學、與蛋白質體學實驗,找到可成為藥物的分子及治療標靶 → 2. 解出其分子結構 → 3. 依此分子結構來設計合成藥物化合物。雖然這過程幾行字就打完,但不僅需要生物醫學、藥理學、生物化學、藥物化學等跨領域團隊投入研究,也耗費超乎想像的金錢與時間。 一種藥物,從實驗室研發、臨床試驗、爾後上市的時程十分漫長,政府與科學家們皆在思考如何加速此流程,減少研發資源的錯置,並協助更多民眾緩於苦痛。

我們使用的藥物之所以有藥效,是因為藥物分子與體內的標靶分子(大多是蛋白質),產生交互作用所致。

以往主要是透過生物化學實驗、或生物物理實驗來了解此交互作用,但是這些實驗方式,並不能提供「藥物分子」與其作用的「標靶生物分子」之間作用的動態關係,而且大部分的實驗方法,無法提供原子尺度的資訊,因此對藥物設計的直接用處有限。要知道,許多藥物分子只要差了一個原子,其藥效就有可能截然不同。此外,這些藥物開發需要的實驗所費不貲,一個錯誤的決策,便會導致研究進度的推遲與研究資源的耗損。 有鑑於此,林榮信團隊的著眼點為:如果能夠在藥物研發初期,先利用電腦模擬藥物開發所選定的「標靶分子」,來快速篩選出有機會的「候選藥物分子」,高精度計算兩者相遇後會如何作用與運動,就能很大程度地協助實驗團隊少走冤枉路,減少藥物開發失敗耗損的人力、物力與光陰。 要達到這個目標,不僅有賴電腦逐年進步的高速運算能力,以及計算物理、化學界對計算方法的精進,也有賴科學家對於生物分子結構的了解。

本文專訪林榮信,從物理出身,跨足計算機科學與分子動力學,現將專業運用於藥物設計。攝影/張語辰

藥物設計核心概念:蛋白質結構會隨時間改變

Q:藥物設計,最重要的觀念是?

藥物設計不能只停留在「結構」層次,也需把蛋白質的「動態」考慮進去。

要模擬藥物在原子、分子層次的藥理作用反應,需先得到會和藥物分子作用的體內蛋白質分子、或其他生物分子的結構。 雖然有蛋白質結構資料庫 (Protein Data Bank) 提供了許多利用 X-ray 結晶學、核磁共振學、低溫電子顯微術所決定出來的高解析度分子結構,但該資料庫裡的分子結構實質上仍只是模型。舉例來說,不可能分子裡面每個原子的 X, Y, Z 位置都真的固定在那裡,我們知道一般實驗條件中,蛋白質是相當動態的。因此,這需要有結構生物學的知識,來理解蛋白質結構資料庫中「分子結構」的真實意義。

-----廣告,請繼續往下閱讀-----
諾貝爾獎得主克里克 (Francis Crick, 1916~2004) 有一句名言:「如果你要了解功能,你要研究結構」。這邊所謂的功能,是指生物分子的功能。圖片來源/Wikipedia 。資料來源/〈挑戰神奇子彈—高效能計算與藥物設計〉,作者:林榮信

我們做藥物設計,相當需要和結構生物學的團隊合作。我們以分子動力學 (molecular dynamics) 模擬出來的蛋白質動態資訊,需要透過進階的生物物理實驗,間接驗證所得到的動態訊息,例如:帶有時間解析度的 X 射線晶體學、甚至是自由電子雷射。不過,這些實驗技術雖持續有進展,仍然進展得十分緩慢。 學術研究有趣的現象是,學術界像個很大的生態環境,有些人會進來、有些人會出去;進來的時間點不同,看到的世界也很不同;而每個人獲得與提供的資訊都不太一樣,每次進來的人都會留下不同程度的進展。像這樣逐步推進,從歷史來看,通常要用二、三十年或以上的時間尺度,才比較看得出很突破性的研究進步。

用深度學習預測藥物和標靶分子反應活躍度

Q:目前實驗室的研究方向?

藥物分子如何與體內的生物分子結合、交互作用,是我們研究的核心主題。

例如,若要開發天然物 (Natural product) 製成現代西方醫學的藥物,過往要從古籍或文獻去看某種草藥或複方有什麼可能的活性,接著萃取、純化出有效化合物之後,要再透過生化實驗測試其生物活性,這是一個很漫長的測試過程,期間也需要很多的推測。 這幾年來,我們發展出計算藥物分子和不同蛋白質系統反應的程式,並建構成 idTarget 「藥物標靶預測平台」,開放給大家運用,方便其他研究人員探索藥物可能的作用標靶。 我們的想法是,要多多重視、運用結構生物學近二十年的大量結構資料,配合藥物分子和蛋白質結合的自由能計算,先找出藥物分子和那些蛋白質較有可能作用。我們知道,化學上一個反應會不會發生、或多容易發生,可以由自由能來預測。因此,生物系統上快速、準確的自由能計算,一直是我們實驗室的核心基礎課題。我們最近也運用深度學習,來開發自由能計算的方法。

林榮信團隊建立的「藥物標靶預測平台」 idTarget ,只要上傳藥物分子結構圖,便能預測蛋白質資料庫 (Protein Data Bank) 其中可能結合的標靶蛋白質分子。資料來源/idTarget

我們實驗室另一個重點,是將傳統常見的藥材以科學方法再研究,這也是目前醫藥研究的重要方向之一。 例如,本草綱目記載「天麻」具有安神與鎮定的效果,而現職中國醫藥大學的林雲蓮教授團隊發現,天麻中有個叫作 T1-11 的新的分子,與過去較熟知的天麻素有很不同的作用;另一方面,中研院生物醫學研究所的陳儀莊博士團隊則發現, T1-11 分子能用於治療亨丁頓舞蹈症。基於這些研究發現,我們實驗室透過電腦設計適合的藥物分子,並由台大化學系的方俊民教授團隊將藥物合成出來。這就是一種新藥開發的跨領域合作方式。

不受限於科系,從高中點滴為未來鋪路

Q:您以前讀物理,怎麼會跨領域至藥物設計?

我想要研究藥物設計,不是某天靈機一動決定的,而是做研究的路上漸漸地朝這方向發展。 一開始,也就是讀台大物理系時,某次導生聚會中,那時的導師陳永芳教授對我們說:「21 世紀的物理,應該是生物物理 (Biophysics) 」,那次以後我心中就一直有個想法,覺得日後研究「生物物理」會是個不錯的方向。 後來,大三時開始發現統計力學 (Statistical mechanics) 是很有意思的領域,因為這門學問關注如何理解所謂的複雜系統。很多物理是關注比較單一的系統,例如原子鑽進去有夸克;但有另一個物理研究方向,是去看如何處理很大、很複雜的問題。現在我研究藥物設計,也是關注體內的生物分子和藥物分子之間,整個系統如何產生複雜的反應。 時間點再往前一點回顧,我在建中時很幸運地得以參加第一屆的「北區高中理化學習成就優異學生輔導實驗計畫」,每兩個禮拜的週末,要從台北坐車去清華大學受訓一整天。當時由清華大學物理系、化學系的各六位老師(包含:李怡嚴、陳信雄、王建民、古煥球、劉遠中、張昭鼎、儲三陽等教授),教我們很多不是高中課本裡的知識。比較早接觸這些大學才能學到的物理和化學,我們就能提早思考將來有興趣的是什麼,因為那時候高中還沒分系,沒有框架綁住自己,這算是蠻難得的人生經驗。

-----廣告,請繼續往下閱讀-----

不同的課程,會提供不一樣的世界,如果沒有接觸,就不會知道有那種思考的存在。

但是,我第一次在研究上真的從事「生物物理」相關的題目,已經是 1996 年到德國于利希研究院 (Forschungszentrum Jülich) 讀博士班的時候了。在這之前,我在台大物理碩士班的研究領域是計算物理 (Computational physics);到了德國,我的指導教授 Artur Baumgaertner 原本是研究高分子物理,其博士後的指導教授是著名的 Prof. Flory,他那時已經跨足在生物物理做了十年左右的研究,問我對生物物理有沒有興趣?我一聽也覺得不錯,便一頭栽進去了。那時研究的題目,是探討像蜂毒蛋白這樣的多胜肽大分子,究竟是透過什麼物理機制穿過細胞膜這樣的屏蔽。 德國的于利希研究院 (Forschungszentrum Jülich) 的型態很像中研院,由三十幾個不同的研究所組成,擁有超過 5000 位研究員,在廣大的校園內,走幾步就到另一個所,非常容易做跨領域合作。這裡在當時有全歐洲最大的超級電腦中心,因此對我的研究非常有幫助。我 2007 年回去訪問,他們剛添置了 72 座 IBM 剛推出的 Blue Gene P,因此我與同事在這新建置的機房留影。

于利希研究院的超級電腦中心。圖片來源/林榮信提供

2000 年博士畢業後,我在美國加州大學聖地牙哥分校的霍華休斯醫學研究所工作,2001 年初,有天指導教授 J. Andrew McCammon 發了一封郵件到實驗室群組,問:「我有個新的藥物計算方法的初步構想,有沒有人想開發這個方法?」之前我就希望我的研究成果能有較大的產業價值,因此很快就回應,而我也成為這個方法開發的小組領導人。 當時的藥物計算程式,剛得到一個很大的進展,但仍只考慮蛋白質等生物分子為一個靜態的結構。我們在那時首度將「藥物設計」的計算與「分子動力學」結合,這剛好是我德國博士班時的專業,我又剛好具備許多寫程式及平行計算的經驗,就將所需要的不同計算工具整合在一起。

 無所畏懼擁抱跨領域新知,藥物設計一點也不難

Q:「藥物設計」很難學嗎?

我發現其實現在學生們學習速度非常快,一旦他決定想進到這個領域,便會盡其所能去學,只是目前國內還沒有適當的藥物設計課程,提供完整的訓練。 因此,2018 年 3 月我們在中研院舉辦了「計算藥物設計方法與應用的前沿進展」工作坊,除了回顧藥物設計的重要文獻,介紹藥物設計的程式工具,也選了一些藥物分子與其作用的蛋白質分子讓學生們上機演練,了解其中的計算細節、眉眉角角。 如果對這領域有興趣,千萬不要認為看起來很難,想等到研究所再來了解。其實越早學習、並習慣接觸跨領域的學科,絕對是事半功倍。 延伸閱讀:

本著作由研之有物製作,原文為《高效能計算藥物設計:更精準的新藥開發》以創用CC 姓名標示–非商業性–禁止改作 4.0 國際 授權條款釋出。

-----廣告,請繼續往下閱讀-----

本文轉載自中央研究院研之有物,泛科學為宣傳推廣執行單位

在網站上看不過癮?研之有物出書啦! 《研之有物:穿越古今!中研院的25堂人文公開課》等著你來認識更多中研院精彩的研究。

-----廣告,請繼續往下閱讀-----
文章難易度
研之有物│中央研究院_96
296 篇文章 ・ 3646 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

1
0

文字

分享

0
1
0
數智驅動未來:從信任到執行,AI 為企業創新賦能
鳥苷三磷酸 (PanSci Promo)_96
・2025/01/13 ・4938字 ・閱讀時間約 10 分鐘

-----廣告,請繼續往下閱讀-----

本文由 鼎新數智 與 泛科學 共同規劃與製作

你有沒有想過,當 AI 根據病歷與 X 光片就能幫你診斷病症,或者決定是否批准貸款,甚至從無人機發射飛彈時,它的每一步「決策」是怎麼來的?如果我們不能知道 AI 的每一個想法步驟,對於那些 AI 輔助的診斷和判斷,要我們如何放心呢?

馬斯克與 OpenAI 的奧特曼鬧翻後,創立了新 AI 公司 xAI,並推出名為 Grok 的產品。他宣稱目標是以開源和可解釋性 AI 挑戰其他模型,而 xAI 另一個意思是 Explainable AI 也就是「可解釋性 AI」。

如今,AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?

-----廣告,請繼續往下閱讀-----
AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?圖/pexels

黑盒子模型背後的隱藏秘密

無法解釋的 AI 究竟會帶來多少問題?試想,現在許多銀行和貸款機構已經使用 AI 評估借貸申請者的信用風險,但這些模型往往如同黑箱操作。有人貸款被拒,卻完全不知原因,感覺就像被分手卻不告訴理由。更嚴重的是,AI 可能擅自根據你的住所位置或社會經濟背景給出負面評價,這些與信用風險真的相關嗎?這種不透明性只會讓弱勢群體更難融入金融體系,加劇貧富差距。這種不透明性,會讓原本就已經很難融入金融體系的弱勢群體,更加難以取得貸款,讓貧富差距越來越大,雪上加霜。

AI 不僅影響貸款,還可能影響司法公正性。美國部分法院自 2016 年起使用「替代性制裁犯罪矯正管理剖析軟體」 COMPAS 這款 AI 工具來協助量刑,試圖預測嫌犯再犯風險。然而,這些工具被發現對有色人種特別不友好,往往給出偏高的再犯風險評估,導致更重的刑罰和更嚴苛的保釋條件。更令人擔憂的是,這些決策缺乏透明度,AI 做出的決策根本沒法解釋,這讓嫌犯和律師無法查明問題根源,結果司法公正性就這麼被悄悄削弱了。

此外,AI 在醫療、社交媒體、自駕車等領域的應用,也充滿類似挑戰。例如,AI 協助診斷疾病,但若原因報告無法被解釋,醫生和患者又怎能放心?同樣地,社群媒體或是 YouTube 已經大量使用 AI 自動審查,以及智慧家居或工廠中的黑盒子問題,都像是一場越來越複雜的魔術秀——我們只看到結果,卻無法理解過程。這樣的情況下,對 AI 的信任感就成為了一個巨大的挑戰。

為什麼人類設計的 AI 工具,自己卻無法理解?

原因有二。首先,深度學習模型結構複雜,擁有數百萬參數,人類要追蹤每個輸入特徵如何影響最終決策結果,難度極高。例如,ChatGPT 中的 Transformer 模型,利用注意力機制(Attention Mechanism)根據不同詞之間的重要性進行特徵加權計算,因為機制本身涉及大量的矩陣運算和加權計算,這些數學操作使得整個模型更加抽象、不好理解。

-----廣告,請繼續往下閱讀-----

其次,深度學習模型會會從資料中學習某些「特徵」,你可以當作 AI 是用畫重點的方式在學習,人類劃重點目的是幫助我們加速理解。AI 的特徵雖然也能幫助 AI 學習,但這些特徵往往對人類來說過於抽象。例如在影像辨識中,人類習慣用眼睛、嘴巴的相對位置,或是手指數量等特徵來解讀一張圖。深度學習模型卻可能會學習到一些抽象的形狀或紋理特徵,而這些特徵難以用人類語言描述。

深度學習模型通常採用分佈式表示(Distributed Representation)來編碼特徵,意思是將一個特徵表示為一個高維向量,每個維度代表特徵的不同方面。假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。對 AI 而言,這是理解世界的方式,但對人類來說,卻如同墨跡測驗般難以解讀。

假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。圖/unsplash

試想,AI 協助診斷疾病時,若理由是基於醫生都無法理解的邏輯,患者即使獲得正確診斷,也會感到不安。畢竟,人們更相信能被理解的東西。

打開黑盒子:可解釋 AI 如何運作?我們要如何教育 AI?

首先,可以利用熱圖(heatmap)或注意力圖這類可視化技術,讓 AI 的「思維」有跡可循。這就像行銷中分析消費者的視線停留在哪裡,來推測他們的興趣一樣。在卷積神經網絡和 Diffusion Models 中 ,當 AI 判斷這張照片裡是「貓」還是「狗」時,我需要它向我們展示在哪些地方「盯得最緊」,像是耳朵的形狀還是毛色的分布。

-----廣告,請繼續往下閱讀-----

其次是局部解釋,LIME 和 SHAP 是兩個用來發展可解釋 AI 的局部解釋技術。

SHAP 的概念來自博弈,它將每個特徵看作「玩家」,而模型的預測結果則像「收益」。SHAP 會計算每個玩家對「收益」的貢獻,讓我們可以了解各個特徵如何影響最終結果。並且,SHAP 不僅能透過「局部解釋」了解單一個結果是怎麼來的,還能透過「全局解釋」理解模型整體的運作中,哪些特徵最重要。

以實際的情景來說,SHAP 可以讓 AI 診斷出你有某種疾病風險時,指出年齡、體重等各個特徵的影響。

LIME 的運作方式則有些不同,會針對單一個案建立一個簡單的模型,來近似原始複雜模型的行為,目的是為了快速了解「局部」範圍內的操作。比如當 AI 拒絕你的貸款申請時,LIME 可以解釋是「收入不穩定」還是「信用紀錄有問題」導致拒絕。這種解釋在 Transformer 和 NLP 應用中廣泛使用,一大優勢是靈活且計算速度快,適合臨時分析不同情境下的 AI 判斷。比方說在醫療場景,LIME 可以幫助醫生理解 AI 為何推薦某種治療方案,並說明幾個主要原因,這樣醫生不僅能更快做出決策,也能增加患者的信任感。

-----廣告,請繼續往下閱讀-----

第三是反事實解釋:如果改變一點點,會怎麼樣?

如果 AI 告訴你:「這家銀行不會貸款給你」,這時你可能會想知道:是收入不夠,還是年齡因素?這時你就可以問 AI:「如果我年輕五歲,或者多一份工作,結果會怎樣?」反事實解釋會模擬這些變化對結果的影響,讓我們可以了解模型究竟是如何「權衡利弊」。

最後則是模型內部特徵的重要性排序。這種方法能顯示哪些輸入特徵對最終結果影響最大,就像揭示一道菜中,哪些調味料是味道的關鍵。例如在金融風險預測中,模型可能指出「收入」影響了 40%,「消費習慣」占了 30%,「年齡」占了 20%。不過如果要應用在像是 Transformer 模型等複雜結構時,還需要搭配前面提到的 SHAP 或 LIME 以及可視化技術,才能達到更完整的解釋效果。

講到這裡,你可能會問:我們距離能完全信任 AI 還有多遠?又或者,我們真的應該完全相信它嗎?

-----廣告,請繼續往下閱讀-----

我們終究是想解決人與 AI 的信任問題

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。因此,AI 既要「可解釋」,也要「能代理」。

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。圖/unsplash

舉例來說,當一家公司要做一個看似「簡單」的決策時,背後的過程其實可能極為複雜。例如,快時尚品牌決定是否推出新一季服裝,不僅需要考慮過去的銷售數據,還得追蹤熱門設計趨勢、天氣預測,甚至觀察社群媒體上的流行話題。像是暖冬來臨,厚外套可能賣不動;或消費者是否因某位明星愛上一種顏色,這些細節都可能影響決策。

這些數據來自不同部門和來源,龐大的資料量與錯綜關聯使企業判斷變得困難。於是,企業常希望有個像經營大師的 AI 代理人,能吸收數據、快速分析,並在做決定時不僅給出答案,還能告訴你「為什麼要這麼做」。

傳統 AI 像個黑盒子,而可解釋 AI (XAI)則清楚解釋其判斷依據。例如,為什麼不建議推出厚外套?可能理由是:「根據天氣預測,今年暖冬概率 80%,過去三年數據顯示暖冬時厚外套銷量下降 20%。」這種透明解釋讓企業更信任 AI 的決策。

-----廣告,請繼續往下閱讀-----

但會解釋還不夠,AI 還需能真正執行。這時,就需要另一位「 AI 代理人」上場。想像這位 AI 代理人是一位「智慧產品經理」,大腦裝滿公司規則、條件與行動邏輯。當客戶要求變更產品設計時,這位產品經理不會手忙腳亂,而是按以下步驟行動:

  1. 檢查倉庫物料:庫存夠不夠?有沒有替代料可用?
  2. 評估交期影響:如果需要新物料,供應商多快能送到?
  3. 計算成本變化:用新料會不會超出成本預算?
  4. 做出最優判斷,並自動生成變更單、工單和採購單,通知各部門配合執行。

這位 AI 代理人不僅能自動處理每個環節,還會記錄每次決策結果,學習如何變得更高效。隨時間推移,這位「智慧產品經理」的判斷將更聰明、決策速度更快,幾乎不需人工干預。更重要的是,這些判斷是基於「以終為始」的原則,為企業成長目標(如 Q4 業績增長 10%)進行連續且動態地自我回饋,而非傳統系統僅月度檢核。

這兩位 AI 代理人的合作,讓企業決策流程不僅透明,還能自動執行。這正是數智驅動的核心,不僅依靠數據驅動決策,還要能解釋每一個選擇,並自動行動。這個過程可簡化為 SUPA,即「感知(Sensing)→ 理解(Understanding)→ 規劃(Planning)→ 行動(Acting)」的閉環流程,隨著數據的變化不斷進化。

偉勝乾燥工業為例,他們面臨高度客製化與訂單頻繁變更的挑戰。導入鼎新 METIS 平台後,偉勝成功將數智驅動融入業務與產品開發,專案準時率因此提升至 80%。他們更將烤箱技術與搬運機器人結合,開發出新形態智慧化設備,成功打入半導體產業,帶動業績大幅成長,創造下一個企業的增長曲線。

-----廣告,請繼續往下閱讀-----

值得一提的是,數智驅動不僅帶動業務增長,還讓員工擺脫繁瑣工作,讓工作更輕鬆高效。

數智驅動的成功不僅依賴技術,還要與企業的商業策略緊密結合。為了讓數智驅動真正發揮作用,企業首先要確保它服務於具體的業務需求,而不是為了技術而技術。

這種轉型需要有策略、文化和具體應用場景的支撐,才能讓數智驅動真正成為企業持續增長的動力。

還在猶豫數智驅動的威力?免費上手企業 AI 助理!👉 企業 AI 體驗
現在使用專屬邀請碼《 KP05 》註冊就享知:https://lihi.cc/EDUk4
訂閱泛科學獨家知識頻道,深入科技趨勢與議題內容。

👉立即免費加入

-----廣告,請繼續往下閱讀-----
鳥苷三磷酸 (PanSci Promo)_96
222 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

1
0

文字

分享

0
1
0
從遊戲到量子計算:NVIDIA 憑什麼在 AI 世代一騎絕塵?
PanSci_96
・2025/01/09 ・2941字 ・閱讀時間約 6 分鐘

-----廣告,請繼續往下閱讀-----

AI 與 GPU 的連結:為什麼 NVIDIA 股價一路飆?

2023 年至今,人工智慧(AI)熱潮引爆全球科技圈的競爭與創新,但最受矚目的企業,莫過於 NVIDIA。它不僅長期深耕遊戲顯示卡市場,在近年來卻因為 AI 應用需求的飆升,一舉躍居市值龍頭。原因何在?大家可能會直覺認為:「顯示卡性能強,剛好給 AI 訓練用!」事實上,真正的關鍵並非只有強悍的硬體,而是 NVIDIA 打造的軟硬體整合技術──CUDA

接下來將為你剖析 CUDA 與通用圖形處理(GPGPU)的誕生始末,以及未來 NVIDIA 持續看好的量子計算與生醫應用,一窺這家企業如何從「遊戲顯示卡大廠」蛻變為「AI 世代的領航者」。

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

CPU vs. GPU:為何顯示卡能成為 AI 領跑者?

在電腦運作中,CPU(中央處理器)向來是整個系統的「大腦」,負責執行指令、邏輯判斷與多樣化的運算。但是,AI 模型訓練需要面對的是龐大的數據量與繁複的矩陣或張量運算。這些運算雖然單一步驟並不複雜,但需要進行「海量且重複性極高」的計算,CPU 難以在短時間內完成。

反觀 GPU(圖形處理器),原先是用來處理遊戲畫面渲染,內部具有 大量且相對簡單的算術邏輯單元。GPU 可以同時在多個核心中進行平行化運算,就像一座「高度自動化、流水線式」的工廠,可一次處理大量像素、頂點或是 AI 訓練所需的運算。這讓 GPU 在大量數值計算上遠遠超越了 CPU 的處理速度,也讓「顯示卡算 AI」成了新時代的主流。

-----廣告,請繼續往下閱讀-----

顯示卡不只渲染:GPGPU 與 CUDA 的誕生

早期,GPU 只被視為遊戲繪圖的利器,但 NVIDIA 的創辦人黃仁勳很快察覺到:這種多核心平行化的結構,除了渲染,也能用來處理科學運算。於是,NVIDIA 在 2007 年正式推出了名為 CUDA(Compute Unified Device Architecture) 的平台。這是一套讓開發者能以熟悉的程式語言(如 C、C++、Python)來調用 GPU 資源的軟體開發工具套件,解決了「人類要如何對 GPU 下指令」的問題。

在 CUDA 出現之前,若要把 GPU 用於渲染以外的用途,往往必須透過「著色器語言」或 OpenGL、DirectX 等繪圖 API 進行繁瑣的間接操作。對想用 GPU 加速數學或科學研究的人來說,門檻極高。然而,有了 CUDA,開發者不需理解圖像著色流程,也能輕鬆呼叫 GPU 的平行運算能力。這代表 GPU 從遊戲卡一躍成為「通用圖形處理單元」(GPGPU),徹底拓展了它在科學研究、AI、影像處理等領域的應用版圖。

AI 崛起的臨門一腳:ImageNet 大賽的關鍵一擊

如果說 CUDA 是 NVIDIA 邁向 AI 領域的踏腳石,那麼真正讓 GPU 與 AI 完美結合的轉捩點,發生在 2012 年的 ImageNet 大規模視覺辨識挑戰賽(ILSVRC)。這場由李飛飛教授創辦的影像辨識競賽中,參賽團隊需要對龐大的影像數據進行訓練、分類及辨識。就在那一年,名為「AlexNet」的深度學習模型橫空出世,利用 GPU 進行平行運算,大幅減少了訓練時間,甚至比第二名的辨識率高出將近 10 個百分點,震撼了全球 AI 研究者。

AlexNet 的成功,讓整個學界與業界都注意到 GPU 在深度學習中的強大潛力。CUDA 在此時被奉為「不二之選」,再加上後來發展的 cuDNN 等深度學習函式庫,讓開發者不必再自行編寫底層 GPU 程式碼,建立 AI 模型的難度與成本大幅降低,NVIDIA 的股價也因此搭上了 AI 波浪,一飛沖天。

-----廣告,請繼續往下閱讀-----
AlexNet 的成功凸顯 GPU 在深度學習中的潛力。圖/unsplash

為什麼只有 NVIDIA 股價衝?對手 AMD、Intel 在做什麼?

市面上有多家廠商生產 CPU 和 GPU,例如 AMD 與 Intel,但為什麼只有 NVIDIA 深受 AI 市場青睞?綜觀原因,硬體只是其一,真正不可或缺的,是 「軟硬體整合」與「龐大的開發者生態系」

硬體部分 NVIDIA 長年深耕 GPU 技術,產品線完整,且數據中心級的顯示卡在能耗與性能上具領先優勢。軟體部分 CUDA 及其相關函式庫生態,涵蓋了影像處理、科學模擬、深度學習(cuDNN)等多方面,讓開發者易於上手且高度依賴。

相比之下,雖然 AMD 也推行了 ROCm 平台、Intel 有自家解決方案,但在市場普及度與生態支持度上,依舊與 NVIDIA 有相當差距。

聰明的管理者

GPU 的優勢在於同時有成百上千個平行運算核心。當一個深度學習模型需要把數據切分成無數個小任務時,CUDA 負責將這些任務合理地排班與分配,並且在記憶體讀寫方面做出最佳化。

-----廣告,請繼續往下閱讀-----
  • 任務分類:同性質的任務集中處理,以減少切換或等待。
  • 記憶體管理:避免資料在 CPU 與 GPU 之間頻繁搬移,能大幅提升效率。
  • 函式庫支援:如 cuDNN,針對常見的神經網路操作(卷積、池化等)做進一步加速,使用者不必從零開始撰寫平行運算程式。

結果就是,研究者、工程師甚至學生,都能輕鬆把 GPU 能力用在各式各樣的 AI 模型上,訓練速度自然飛漲。

從 AI 到量子計算:NVIDIA 對未來的佈局

當 AI 波浪帶來了股價與市值的激增,NVIDIA 並沒有停下腳步。實際上,黃仁勳與團隊還在積極耕耘下一個可能顛覆性的領域──量子計算

2023 年,NVIDIA 推出 CUDA Quantum 平台,嘗試將量子處理器(QPU)與傳統 GPU / CPU 整合,以混合式演算法解決量子電腦無法單獨加速的部分。就像為 AI 量身打造的 cuDNN 一樣,NVIDIA 也對量子計算推出了相對應的開發工具,讓研究者能在 GPU 上模擬量子電路,或與量子處理器協同運算。

NVIDIA 推出 CUDA Quantum 平台,整合 GPU 與 QPU,助力混合量子運算。圖/unsplash

這項新布局,或許還需要時間觀察是否能孕育出市場級應用,但顯示 NVIDIA 對「通用運算」的野心不只停留於 AI,也想成為「量子時代」的主要推手。

-----廣告,請繼續往下閱讀-----

AI 熱潮下,NVIDIA 凭什麼坐穩王座?

回到一開始的疑問:「為什麼 AI 熱,NVIDIA 股價就一定飛?」 答案可簡化為兩點:

  1. 硬體領先 + 軟體生態:顯示卡性能強固然重要,但 CUDA 建立的開發者生態系才是關鍵。
  2. 持續布局未來:當 GPU 為 AI 提供高效能運算平台,NVIDIA 亦不斷將資源投入到量子計算、生醫領域等新興應用,為下一波浪潮預先卡位。

或許,正因為不斷探索新技術與堅持軟硬整合策略,NVIDIA 能在遊戲市場外再創一個又一個高峰。雖然 AMD、Intel 等競爭者也全力追趕,但短期內想撼動 NVIDIA 的領先地位,仍相當不易。

未來,隨著 AI 技術持續突破,晶片性能與通用運算需求只會節節攀升。「AI + CUDA + GPU」 的組合,短時間內看不出能被取代的理由。至於 NVIDIA 是否能繼續攀向更驚人的市值高峰,甚至在量子計算跑道上再拿下一座「王者寶座」,讓我們拭目以待。

歡迎訂閱 Pansci Youtube 頻道 鎖定每一個科學大事件!

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

PanSci_96
1262 篇文章 ・ 2408 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

1
0

文字

分享

0
1
0
AI 能像人類一樣思考?諾貝爾物理學獎研究助力人工智慧模擬人類大腦
PanSci_96
・2024/11/14 ・2117字 ・閱讀時間約 4 分鐘

-----廣告,請繼續往下閱讀-----

即使再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?畢竟電腦的電子元件和我們大腦中的神經細胞結構截然不同。再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?

錯,可以。

2024 年諾貝爾物理學獎跌破所有專家的眼鏡,頒給了兩位研究機器學習的科學家——約翰·霍普菲爾德(John Hopfield)和傑佛瑞·辛頓(Geoffrey Hinton)。他們以「人工」的方法打造了類神經網路,最終模擬出生物的「智慧」,奠定了當代深度學習的基礎。

為什麼解決人工智慧發展瓶頸的,竟然會是物理學?物理要怎麼讓 AI 更像人類?

-----廣告,請繼續往下閱讀-----
歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

從巴甫洛夫的狗到赫布理論:理解學習的基礎

為了解答這個疑問,我們需要一些背景知識。

20 世紀初,俄羅斯心理學家巴甫洛夫發現,狗在食物還沒入口前,就會開始分泌唾液。他進行了一系列實驗,改變食物出現前的環境,比如讓狗習慣在聽到鈴聲後馬上得到食物。久而久之,狗只要聽到鈴聲,就會開始分泌唾液。

大約 50 年後,神經科學家赫布(Donald Hebb)提出了一個假說:大腦中相近的神經元,因為經常同時放電,會產生更強的連結。這種解釋稱為「赫布理論」,不僅奠定了神經心理學的發展,更成為現代深度學習的基礎。

然而,赫布理論雖然描述了鄰近神經元的關係,卻無法解釋大腦如何建構出如此複雜的聯想網路。

-----廣告,請繼續往下閱讀-----

霍普菲爾德網路:物理學家對神經網路的貢獻

然而,赫布理論雖能描述神經元之間的關係,卻缺乏數學模型。物理學家約翰·霍普菲爾德從數學家約翰·康威(John Conway)的「生命遊戲」(Game of Life)中獲得靈感,試圖建立一個可以在電腦上運行的記憶系統。

霍普菲爾德受「生命遊戲」啟發,嘗試建立電腦記憶系統。圖/envato

「生命遊戲」由數學家康威(John Conway)發明,玩家開始時有一個棋盤,每個格子代表一個細胞,細胞可以是「活」或「死」的狀態。根據特定規則,細胞會根據鄰居的狀態決定下一次的生存狀態。康威的目的是展示複雜的系統不一定需要複雜的規則。

霍普菲爾德發現,這個遊戲與赫布理論有強大的關聯性。大腦中的大量神經元,在出生時處於初始狀態,經過刺激後,神經元間的連結會產生或斷裂,形成強大的記憶系統。他希望利用這些理論,創造一個能在電腦上運行的記憶系統。

然而,他面臨一個難題:赫布理論沒有明確的數學模型來決定神經元連結的規則。而在電腦上運行,必須要有明確的數學規則。

-----廣告,請繼續往下閱讀-----

物理學的啟發:易辛模型

霍普菲爾德從物理學的研究中找到了類似的模型:易辛模型(Ising Model)。這個模型用於解釋鐵磁性物質的磁性特性。

在鐵磁性物質中,電子具有「自旋」,自旋產生磁矩。電子的自旋方向只有「向上」或「向下」,這就像生命遊戲中細胞的「生」或「死」。鄰近的電子會影響彼此的自旋方向,類似於細胞之間的互動。

易辛模型能用數學描述電子間的相互影響,並通過計算系統能量,得出自旋狀態的分佈。霍普菲爾德借用了這個概念,將神經元的互動視為電子自旋的互動。

他結合了康威生命遊戲的時間演化概念、易辛模型的能量計算,以及赫布理論的動態連結,創造了「霍普菲爾德網路」。這讓電腦能夠模擬生物大腦的學習過程。

-----廣告,請繼續往下閱讀-----

突破瓶頸:辛頓與波茲曼機

約翰·霍普菲爾德於1982年發明聯想神經網路,即「霍普菲爾網路」。圖/wikimedia

然而,霍普菲爾德網路並非完美。它容易陷入「局部最小值」的問題,無法找到系統的全局最優解。為了解決這個問題,加拿大計算機科學家傑佛瑞·辛頓(Geoffrey Hinton)提出了「波茲曼機」(Boltzmann Machine)。

辛頓將「模擬退火」的概念引入神經網路,允許系統以一定的機率跳出局部最小值,尋找全局最優解。他還引入了「隱藏層」的概念,將神經元分為「可見層」和「隱藏層」,提高了網路的學習能力。

受限波茲曼機(Restricted Boltzmann Machine)進一步簡化了模型,成為深度學習的基礎結構之一。這些創新使得 AI 能夠更有效地模擬人類的思維和學習過程。

AI 的未來:跨學科的融合

霍普菲爾德和辛頓的工作,將物理學的概念成功應用於人工智慧。他們的研究不僅解決了 AI 發展的瓶頸,還奠定了深度學習的基礎,對現代 AI 技術產生了深遠的影響。因此,2024 年諾貝爾物理學獎頒給他們,並非意外,而是對他們在跨學科領域的重大貢獻的肯定。

-----廣告,請繼續往下閱讀-----

AI 的發展,離不開物理學、生物學、數學等多學科的融合。霍普菲爾德和辛頓的工作,正是這種融合的典範。未來,隨著科學技術的進步,我們有理由相信,AI 將越來越接近人類的思維方式,甚至可能超越我們的想像。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

PanSci_96
1262 篇文章 ・ 2408 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。