0

1
1

文字

分享

0
1
1

人工智慧與深度學習,會把人類的工作搶走嗎?解析A.I.的深度學習

研之有物│中央研究院_96
・2017/08/26 ・6106字 ・閱讀時間約 12 分鐘 ・SR值 548 ・八年級

深度學習 (Deep Learning)

若將資料比喻為原料(data),機器學習就是處理器(processor), AI 人工智慧相當於結果(outcome)。而「深度學習」是機器學習的一種方式,讓電腦像長了神經網路般,可進行複雜的運算,展現擬人的判斷及行為,是現今 AI 人工智慧的主流技術。

許多人試著進入「深度學習」領域,卻發現教材明明都是中文字,卻完全看不懂。圖片來源/iStock、Nick Young;圖說重製/林婷嫻、張語辰

如果上圖有打中你,本文整理 2017 中央研究院 AI 月系列活動中,國內外專家分享的深度學習思維與應用。希望能讓深度學習成為各位小智的寶可夢,在人工智慧這條路上,走出樂趣與成就感。

深度學習:讓電腦長神經,教它判斷決策

1960 年代起,科學家就試著透過各種機器學習技術,教電腦擁有人工智慧,例如會下西洋跳棋的電腦程式。但這跟現在的 AlphaGo 相比似乎不算什麼?這部分拜賜於電腦運算效能大幅提升、大量供訓練使用的資料,以及深度學習技術近幾年的突破性進展。

人腦思考仰賴神經網路的運作,科學家也透過設計函數模組,在電腦中組成「類神經網路」,讓電腦藉由餵養的訓練資料,歸納出背後的規則,做出最適合的判斷。圖片來源/iStock;圖說設計/林婷嫻、張語辰

從上圖可以看到,這是深度學習與傳統機器學習技術的最大差別:電腦有了四通八達的神經網路!透過層層非線性函數組成的神經網路、及精心規劃的權重訓練過程,電腦學會在未曾經驗過的情境下做出最適當的反應。

訓練深度學習模型就像教小孩,給予足夠的人生經驗,透過神經網路學習,讓電腦未來自己判斷怎麼做比較好。

若將深度學習比喻為手拉坏,陶土就是資料,陶碗成品是電腦自動找出來的函數(function),而目前有的「拉坯機」為 TensorFlow、PyTorch、Microsoft CNTK、Keras 等程式庫,其中 Keras 算是 TensorFlow 的官方介面,比較容易上手、適合初學者。而核心處理器 GPU 就像拉坯機的電源,若是 GPU 強大又穩定,深度學習的運算速度會更快。但最重要的是,身為手拉坏師傅的你,要如何教導電腦這位學徒。

-----廣告,請繼續往下閱讀-----

「深度」在於神經網路的層層結構

小時候爸媽會拿著圖書,教你辨認 “1″ ,”2″, “3″ 每個數字的長相,若要教電腦辨識數字 “2” ,要先從該影像一個個像素 (pixel)開始分析,經由層層層層層層層層層層層層層層層層函數組成的神經網路運算,最後判斷出這個影像「最可能」為數字 “2” 。

先教電腦定義每個影像的值,再透過神經網路的層層非線性函數運算,判斷這個影像最可能為哪個數字,信心水準比值最高者為答案。資料來源/李宏毅;圖說重製/林婷嫻、張語辰

為了達到較高的信心水準,有兩個關鍵:給與足夠的訓練資料,以及設計出優秀的神經網路。

深度學習的神經網路結構,該長什麼模樣?目前主流作法有 CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)和 GAN(Generative Adversarial Network)等等 ,各有信徒支持的優點。

深度學習常使用的三種神經網路架構示意:CNN, RNN, GAN。資料來源/李宏毅;圖說重製/林婷嫻、張語辰

CNN 善於處理空間上連續的資料,例如影像辨識;RNN 適合處理有時間序列、語意結構的資料,例如分析 ptt 電影版的文章是好雷或負雷;而 GAN 生成器(generator)與鑑別器(discriminator)的對抗訓練模式可以輔佐電腦「觀全局」,不會忘記自己做過的步驟而發生窘況,像是教電腦自動畫皮卡丘時,忘記自己已經畫了一個頭,最後畫出兩個頭。

強大的 AlphaGo 如何深度學習?

與 AlphaGo 對弈的柯潔曾表示:「與人類相比,我感覺不到它(AlphaGo)對圍棋的熱情和熱愛。我會我用所有的熱情去與它做最後的對決」。若以情感面來探討,確實為難 AlphaGo 。

因為在 AlphaGo 深度學習的過程中,訓練的資料並沒有任何熱血動漫或情書情歌,而是一張又一張專業的棋譜影像資料。台大電機系李宏毅教授以《棋靈王》漫畫的棋譜比喻說明,請見下圖。

透過眾多棋譜影像訓練,電腦可以學會根據目前棋盤上的局面,判斷下一步應該落棋於何處。本圖以《棋靈王》漫畫情節來比喻。資料來源/《棋靈王》漫畫、李宏毅提供;圖說重製/林婷嫻、張語辰

異質神經網路 (HIN):教電腦找到不同種資料的關連

除了「深度」,也別忘了「廣度」,把不同類型的資料整合在一起,可讓分析結果更精準。

來自伊利諾伊大學芝加哥校區的俞士綸教授點出,通常企業機關擁有的數據,是從各種不同管道蒐集而來,往往屬於不同型態。例如 Google 呈現搜尋結果建議時,除了看搜尋的關鍵字,也會參考使用者平常 Gmail 常用哪些字,或使用者正位於 Google Map 上的哪個位置。

這需要透過 HIN 異質神經網路(Heterogeneous Information Networks)技術,來理解並串連不同種類資料之間的關係。

俞士綸教授以藥物研發為例,在藥物合成或試驗前,可先透過深度學習分析相關資料,瞭解化合物的藥效會控制哪個基因、該基因和哪個通道有關係,或了解某個副作用會由哪兩種化合物引起 (註一)。這些深度學習的分析結果,再搭配和生醫或化學專家討論,有助縮減研發藥物的時間和花費。

透過深度學習,幫助判斷哪個藥物研發路徑比較重要(不同顏色的箭頭),及預測某個藥物能不能治療某種疾病。資料來源/俞士綸;圖說重製/林婷嫻、張語辰

深度學習,超幅提升電腦視覺能力

1960 年代,人工智慧先驅者 MIT 教授 Marvin Minsky 曾說「給我三個月,還有一位大學生,我要讓電腦可以辨識影像」,但當時電腦的聰明程度只會畫一些簡單的圓形、正方形,後來 Marvin Minsky 和學生 Gerald Sussman 宣告這個挑戰失敗。

到了 1990 年代,電腦視覺(Computer Vision)有更進步的發展,例如由 David Lowe 發表的 SIFT(Scale-Invariant Feature Transform)演算法,用來描述影像中的局部特徵,藉以偵測影像或影片在位置、尺度、角度上的對應及變異。

SIFT 電腦視覺演算法:先算出影像中每一個小區塊的方向性與梯度變化,再整合成各大區塊的方向性與梯度變化,降低資料的維度和雜訊,以利後續應用。資料來源/陳彥呈

現在大家常用的 panorama 全景攝影、3D 模型建立、VR 影像縫合等技術,皆應用到 SIFT 或類似的演算法;而 NASA 在外太空拍下火星地景照片時,也是透過 SIFT 演算法來比對地景特徵。

NASA 在外太空以俯視及平視兩種角度拍下火星地景,再透過 SIFT 演算法,辨認出同區域的視覺特徵(照片中的彩色小圓圈)。資料來源/陳彥呈提供

時間來到 2017 年,受惠於深度學習的進展,電腦視覺技術彷彿從單細胞生物進化到智人,發展出優異的影像辨識及理解技術,並成功應用於各行業與生活中。例如:在生產線上辨識紡織品花紋的瑕疵,以及網美愛用的修圖 APP ──辨識痘痘的位置並套上讓肌膚平滑的濾鏡。

影像辨識技術:早期演算法只能辨識一些簡單的特徵,現在透過深度學習,電腦可以辨識看到的汽車、自行車、行人等等,算出相對應的距離,並判斷哪些目標需要注意。資料來源/Nvidia launches Drive – the computer self-driving cars have been crying out for

運用深度學習教電腦辨識視覺特徵,發展到極致可望革新人類的生活。Viscovery 研發副總裁陳彥呈博士在演講中分享,現今 NVIDIA 的自動駕駛系統,從頭到尾只教電腦一件事:「辨認哪裡還有路可以開,才不會撞上」。秉持這個單純的概念,擴增訓練的影像資料、優化深度學習的神經網路,NVIDIA 自動駕駛系統的影像辨識正確性、反應速度和駕駛時速,不斷提升到可以上路的程度。

NVIDIA 自動駕駛系統:用深度學習,教電腦辨認哪裡有路可走,才不會撞上任何障礙物。資料來源/Volvo Cars and Autoliv Select NVIDIA DRIVE PX Platform for Self-Driving Cars

但自動駕駛車上路後,有哪些變因是神經網路算不出來的?陳彥呈舉例,當交通信號燈從黃燈變為紅燈時,自動駕駛系統會辨認燈色,並判斷該剎車停下來。但若這時後方一輛人類駕駛的車輛,可能趕時間認為應該要闖黃燈,就會撞上自動駕駛車。這該優化的是電腦的判斷力呢?還是人類的判斷力呢?

雖然將深度學習應用到電腦視覺領域,看來走在時代最前端,可以幫人類完成許多事,但陳彥呈以黑客松 (hackathon)競賽的範例來提醒,人們在進行深度學習研究時經常忽略的考量。

黑客松競賽中,學員提出用深度學習教電腦辨認「機車違規亂停」,幫助解決街道亂象。圖說設計/林婷嫻、張語辰

用 100 張違規停車的照片,加上 100 張依規停車的照片,透過 150 層的 ResNet 深度神經網路來訓練電腦,辨認出違規停車。聽起來是很棒的點子。

陳彥呈以過來人的經驗分享,這最大的挑戰在於:第一層輸入訓練電腦的影像資料中,「機車」和「腳踏車」的視覺特徵變異,遠大於地上「白線」和「紅線」的視覺特徵變異,會讓電腦誤以為要學習辨認「機車」和「腳踏車」的不同,而無法辨認出「白線」和「紅線」。

就像要教小狗「坐下」,但卻說了很多不同語言的「坐下」,或同時伴隨華麗的手勢,會混淆小狗究竟該辨認哪個特徵,無法做出正確的反應。

一開始準備訓練深度學習模型的資料時,就要處理乾淨,有助於後續神經網路的運算表現。

深度學習:一天 24 小時不夠用 QQ

中研院資訊所陳昇瑋研究員在演講中說明:深度學習讓電腦具備從繁雜資料中歸納規則的能力,但電腦畢竟不像人腦直覺,過程中還要教電腦處理各層函數的權重(weights)與偏差(bias)。

台大電機系李宏毅教授分享教電腦辨識 ”2” 的經驗,需要餵給電腦一萬張以上的手寫數字影像資料。而若要訓練電腦自動畫出二次元人物頭像,為了達到看起來會想戀愛的精美程度,至少要運算 5 萬回合(epoch),而每跑 100 回合可能就耗費大半天光陰。

透過 GAN 生成式對抗網路,跑了 5 萬回合後,教電腦自動畫出二次元頭像的成果。某幾個頭像是否看了感到心動?資料來源/GAN学习指南:从原理入门到制作生成Demo、李宏毅提供

打算將鐵杵磨成繡花針的老婆婆,曾經感動李白奮發向上,而若李白來到這個時代,看到電腦科學家不屈不撓的「深度學習」精神可能會雙膝一軟。若您是某企業的高階長官,千萬別對軟體工程師說:「這有資料,現在深度學習不是很紅嗎?試試看,一個禮拜後報告。」任何人工智慧技術,都需要時間淬煉。

XXX 工作會消失?天網會消滅人類?

左圖:中間高台的人正在唸故事給工作的人們聽;右圖:拿著竹竿敲窗戶的 morning call 服務。圖片來源/陳彥呈提供

隨著科技發展,現在有音樂串流平台,可以排解工作煩悶。早上也能透過智慧手機鬧鐘,讓自己在降低起床氣的旋律中睜開眼睛。這些是在留聲機及鬧鐘尚未出現前,曾經有的人工服務,但現在圖中的工作都已經消失了。

「唯一不變的,是變的本身。」 (Change is the only constant.) -- 古希臘哲學家 Heraclitus

幫助人們完成做不到的任務、解決心有餘而力不足的問題,這是自始至終發展人工智慧的目標。

以中研院「106 年度資料科學種子研究計畫」正在進行的研究為例 (註二),人工智慧可望幫忙解決生活中許多問題,包含:透過行動上網訊號來觀測人口流動,並預測傳染病的傳染區域途徑;藉由分析近年來交通事故的地方法院民事判決,歸納出法官如何衡量肇事責任的分配;亦可透過電腦視覺分析蛾類的體色,了解體色變化與氣候變異的關係。

現階段人工智慧受惠於深度學習,雖然相當強大,但尚有許多限制有待突破,電腦科學家們仍在蒐集訓練資料、優化神經網路、改善運算效能這條路上馬不停蹄。對於想踏入深度學習領域的初心者,李宏毅教授在演講中說出相當真實的心聲:

你看別人做手拉坏好像很容易,但自己做下去會有各種崩潰,深度學習也是一樣。心法在於你要相信自己一定做得出來!

2017 中央研究院 AI 月活動現場,講師正在向大家說明,如何建構精巧的深度神經網路。攝影/張語辰

看完這篇文章,當媒體下標天網要消滅人類、機器人發展自己的語言嚇壞工程師時,相信你已了解深度學習的能力與發展可能性。來自美國南加州大學的郭宗杰教授,在演講中笑著說:「因為不懂,會把它(深度學習)講得非常強;但如果懂了,就會知道它其實相當地有限,不要被外行人的說法嚇到。」

無論何種身分,若對於人工智慧和深度學習的最新發展感興趣,後續中央研究院資料科學種子研究群的活動現場有個位子,留給未來的你。

延伸閱讀

CC 4.0

本著作由研之有物製作,以創用CC 姓名標示–非商業性–禁止改作 4.0 國際 授權條款釋出。

 

本文轉載自中央研究院研之有物,泛科學為宣傳推廣執行單位

-----廣告,請繼續往下閱讀-----
文章難易度
研之有物│中央研究院_96
296 篇文章 ・ 3808 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

2
1

文字

分享

0
2
1
「融合蛋白」如何全方位圍剿狡猾癌細胞
鳥苷三磷酸 (PanSci Promo)_96
・2025/11/07 ・5944字 ・閱讀時間約 12 分鐘

本文與 TRPMA 台灣研發型生技新藥發展協會合作,泛科學企劃執行

我們知道癌症是台灣人健康的頭號公敵。 為此,我們花了很多時間介紹最新、最有效的抗癌方法之一:免疫療法

免疫療法中最重要的技術就是抗體藥物。科學家會人工製造一批抗體去標記癌細胞。它們就像戰場上的偵察無人機,能精準鎖定你體內的敵人——癌細胞,為它們打上標記,然後引導你的免疫系統展開攻擊。

這跟化療、放射線治療那種閉著眼睛拿機槍亂掃不同。免疫療法是重新叫醒你的免疫系統,為身體「上buff (增益) 」來抗癌,副作用較低,因此備受好評。

-----廣告,請繼續往下閱讀-----

但尷尬的是,經過幾年的臨床考驗,科學家發現:光靠抗體對抗癌症,竟然已經不夠用了。

事情是這樣的,臨床上醫生與科學家逐漸發現:這個抗體標記,不是容易損壞,就是癌細胞同時設有多個陷阱關卡,只靠叫醒免疫細胞,還是難以發揮戰力。

但好消息是,我們的生技工程也大幅進步了。科學家開始思考:如果這台偵察無人機只有「標記」這一招不夠用,為什麼不幫它升級,讓它多學幾招呢?

這個能讓免疫藥物(偵察無人機)大進化的訓練器,就是今天的主角—融合蛋白(fusion protein)

-----廣告,請繼續往下閱讀-----
融合蛋白(fusion protein)/ 圖片來源:wikipedia

融合蛋白是什麼?

免疫療法遇到的問題,我們可以這樣理解:想像你的身體是一座國家,病毒、細菌、腫瘤就是入侵者;而抗體,就是我們派出的「偵察無人機」。

當我們透過注射放出這支無人機群進到體內,它能迅速辨識敵人、緊抓不放,並呼叫其他免疫單位(友軍)一同解決威脅。過去 20 年,最強的偵查機型叫做「單株抗體」。1998年,生技公司基因泰克(Genentech)推出的藥物赫賽汀(Herceptin),就是一款針對 HER2 蛋白的單株抗體,目標是治療乳癌。

這支無人機群為什麼能對抗癌症?這要歸功於它「Y」字形的小小抗體分子,構造看似簡單,卻蘊藏巧思:

  • 「Y」 字形上面的兩隻「叉叉」是敵人偵測器,能找到敵人身上的抗原特徵,並黏上去,稱為抗體結合區「Fab 區域」。
  • 「Y」 字形的「尾巴」就是我們說的「標籤」,它能通知免疫系統啟動攻擊,稱為結晶區域片段「Fc 區域」。具體來說,當免疫細胞在體內巡邏,免疫細胞上的 Fc 受體 (FcR) 會和 Fc區域結合,進而認出病原體或感染細胞,接著展開清除。

更厲害的是,這個 Fc 區域標籤還能加裝不同功能。一般來說,人體內多餘的分子,會被定期清除。例如,細胞內會有溶酶體不斷分解多餘的物質,或是血液經過肝臟時會被代謝、分解。那麼,人造抗體對身體來說,屬於外來的東西,自然也會被清除。

-----廣告,請繼續往下閱讀-----

而 Fc區域會與細胞內體上的Fc受體結合,告訴細胞「別分解我」的訊號,阻止溶酶體的作用。又或是單純把標籤做的超大,例如接上一段長長的蛋白質,或是聚乙二醇鏈,讓整個抗體分子的大小,大於腎臟過濾孔的大小,難以被腎臟過濾,進而延長抗體在體內的存活時間。

偵測器(Fab)加上標籤(Fc)的結構,使抗體成為最早、也最成功的「天然設計藥物」。然而,當抗體在臨床上逐漸普及,一個又一個的問題開始浮現。抗體的強項在於「精準鎖定」,但這同時也是它的限制。

「Y」 字形上面的兩隻「叉叉」是敵人偵測器,能找到敵人身上的抗原特徵,並黏上去,稱為抗體結合區「Fab 區域」/ 圖片來源:shutterstock

第一個問題:抗體只能打「魔王」,無法毀掉「魔窟」。 

抗體一定要有一個明確的「標的物」才能發揮作用。這讓它在針對「腫瘤」或「癌細胞本身」時非常有效,因為敵人身上有明顯標記。但癌細胞的形成與惡化,是細胞在「生長、分裂、死亡、免疫逃脫」這些訊號通路上被長期誤導的結果。抗體雖然勇猛,卻只能針對已經帶有特定分子的癌細胞魔王,無法摧毀那個孕育魔王的系統魔窟。這時,我們真正欠缺的是能「調整」、「模擬」或「干擾」這些錯誤訊號的藥物。

-----廣告,請繼續往下閱讀-----

第二個問題:開發產線的限制。

抗體的開發,得經過複雜的細胞培養與純化程序。每次改變結構或目標,幾乎都要重新開發整個系統。這就像你無法要求一台偵測紅外線的無人機,明天立刻改去偵測核輻射。高昂的成本與漫長的開發時間,讓新產線難以靈活創新。

為了讓免疫藥物能走向多功能與容易快速製造、測試的道路,科學家急需一個更工業化的藥物設計方式。雖然我們追求的是工業化的設計,巧合的是,真正的突破靈感,仍然來自大自然。

在自然界中,基因有時會彼此「融合」成全新的組合,讓生物獲得額外功能。例如細菌,它們常仰賴一連串的酶來完成代謝,中間產物要在細胞裡來回傳遞。但後來,其中幾個酶的基因彼此融合,而且不只是基因層級的合併,產出的酶本身也變成同一條長長的蛋白質。

-----廣告,請繼續往下閱讀-----

結果,反應效率大幅提升。因為中間產物不必再「跑出去找下一個酶」,而是直接在同一條生產線上完成。對細菌來說,能更快處理養分、用更少能量維持生存,自然形成適應上的優勢,這樣的融合基因也就被演化保留下來。

科學家從中得到關鍵啟發:如果我們也能把兩種有用的蛋白質,「人工融合」在一起,是否就能創造出更強大的新分子?於是,融合蛋白(fusion protein)就出現了。

以假亂真:融合蛋白的HIV反制戰

融合蛋白的概念其實很直覺:把兩種以上、功能不同的蛋白質,用基因工程的方式「接起來」,讓它們成為同一個分子。 

1990 年,融合蛋白 CD4 免疫黏附素(CD4 immunoadhesin)誕生。這項設計,是為了對付令人類聞風喪膽的 HIV 病毒。

-----廣告,請繼續往下閱讀-----

我們知道 T 細胞是人體中一種非常重要的白血球。在這些 T 細胞中,大約有六到七成表面帶有一個叫做「CD4」的輔助受體。CD4 會和另一個受體 TCR 一起合作,幫助 T 細胞辨識其他細胞表面的抗原片段,等於是 T 細胞用來辨認壞人的「探測器」。表面擁有 CD4 受體的淋巴球,就稱為 CD4 淋巴球。

麻煩的來了。 HIV 病毒反將一軍,竟然把 T 細胞的 CD4 探測器,當成了自己辨識獵物的「標記」。沒錯,對 HIV 病毒來說,免疫細胞就是它的獵物。HIV 的表面有一種叫做 gp120 的蛋白,會主動去抓住 T 細胞上的 CD4 受體。

一旦成功結合,就會啟動一連串反應,讓病毒外殼與細胞膜融合。HIV 進入細胞內後會不斷複製並破壞免疫細胞,導致免疫系統逐漸崩潰。

為了逆轉這場悲劇,融合蛋白 CD4 免疫黏附素登場了。它的結構跟抗體類似,由由兩個不同段落所組成:一端是 CD4 假受體,另一端則是剛才提到、抗體上常見的 Fc 區域。當 CD4 免疫黏附素進入體內,它表面的 CD4 假受體會主動和 HIV 的 gp120 結合。

-----廣告,請繼續往下閱讀-----

厲害了吧。 病毒以為自己抓到了目標細胞,其實只是被騙去抓了一個假的 CD4。這樣 gp120 抓不到 CD4 淋巴球上的真 CD4,自然就無法傷害身體。

而另一端的 Fc 區域則有兩個重要作用:一是延長融合蛋白在體內的存活時間;二是理論上能掛上「這裡有敵人!」的標籤,這種機制稱為抗體依賴性細胞毒殺(ADCC)或免疫吞噬作用(ADCP)。當免疫細胞的 Fc 受體與 Fc 區域結合,就能促使免疫細胞清除被黏住的病毒顆粒。

不過,這裡有個關鍵細節。

在實際設計中,CD4免疫黏附素的 Fc 片段通常會關閉「吸引免疫細胞」的這個技能。原因是:HIV 專門攻擊的就是免疫細胞本身,許多病毒甚至已經藏在 CD4 細胞裡。若 Fc 區域過於活躍,反而可能引發強烈的發炎反應,甚至讓免疫系統錯把帶有病毒碎片的健康細胞也一併攻擊,這樣副作用太大。因此,CD4 免疫黏附素的 Fc 區域會加入特定突變,讓它只保留延長藥物壽命的功能,而不會與淋巴球的 Fc 受體結合,以避免誘發免疫反應。

從 DNA 藍圖到生物積木:融合蛋白的設計巧思

融合蛋白雖然潛力強大,但要製造出來可一點都不簡單。它並不是用膠水把兩段蛋白質黏在一起就好。「融合」這件事,得從最根本的設計圖,也就是 DNA 序列就開始規劃。

我們體內的大部分蛋白質,都是細胞照著 DNA 上的指令一步步合成的。所以,如果科學家想把蛋白 A 和蛋白 B 接在一起,就得先把這兩段基因找出來,然後再「拼」成一段新的 DNA。

不過,如果你只是單純把兩段基因硬接起來,那失敗就是必然的。因為兩個蛋白會互相「打架」,導致摺疊錯亂、功能全毀。

這時就需要一個小幫手:連接子(linker)。它的作用就像中間的彈性膠帶,讓兩邊的蛋白質能自由轉動、互不干擾。最常見的設計,是用多個甘胺酸(G)和絲胺酸(S)組成的柔性小蛋白鏈。

設計好這段 DNA 之後,就能把它放進細胞裡,讓細胞幫忙「代工」製造出這個融合蛋白。接著,科學家會用層析、電泳等方法把它純化出來,再一一檢查它有沒有摺疊正確、功能是否完整。

如果一切順利,這個人工設計的融合分子,就能像自然界的蛋白一樣穩定運作,一個全新的「人造分子兵器」就此誕生。

CD4免疫黏附素問世之後,融合蛋白逐漸成為生物製藥的重要平台之一。而且現在的融合蛋白,早就不只是「假受體+Fc 區域」這麼單純。它已經跳脫模仿抗體,成為真正能自由組裝、自由設計的生物積木。

CD4免疫黏附素問世之後,融合蛋白逐漸成為生物製藥的重要平台之一 / 圖片來源:wikipedia

融合蛋白的強項,就在於它能「自由組裝」。

以抗體為骨架,科學家可以接上任何想要的功能模組,創造出全新的藥物型態。一般的抗體只能「抓」(標記特定靶點);但融合蛋白不只會抓,還能「阻斷」、「傳遞」、甚至「調控」訊號。在功能模組的加持下,它在藥物設計上,幾乎像是一個分子級的鋼鐵蜘蛛人裝甲。

一般來說,當我們選擇使用融合蛋白時,通常會期待它能發揮幾種關鍵效果:

  1. 療效協同: 一款藥上面就能同時針對多個靶點作用,有機會提升治療反應率與持續時間,達到「一藥多效」的臨床價值。
  2. 減少用藥: 原本需要兩到三種單株抗體聯合使用的療法,也許只要一種融合蛋白就能搞定。這不僅能減少給藥次數,對病人來說,也有機會因為用藥減少而降低治療成本。
  3. 降低毒性風險: 經過良好設計的融合蛋白,可以做到更精準的「局部活化」,讓藥物只在目標區域發揮作用,減少副作用。

到目前為止,我們了解了融合蛋白是如何製造的,也知道它的潛力有多大。

那麼,目前實際成效到底如何呢?

一箭雙鵰:拆解癌細胞的「偽裝」與「內奸」

2016 年,德國默克(Merck KGaA)展開了一項全新的臨床試驗。 主角是一款突破性的雙功能融合蛋白──Bintrafusp Alfa。這款藥物的厲害之處在於,它能同時封鎖 PD-L1 和 TGF-β 兩條免疫抑制路徑。等於一邊拆掉癌細胞的偽裝,一邊解除它的防護罩。

PD-L1,我們或許不陌生,它就像是癌細胞身上的「偽裝良民證」。當 PD-L1 和免疫細胞上的 PD-1 受體結合時,就會讓免疫系統誤以為「這細胞是自己人」,於是放過它。我們的策略,就是用一個抗體或抗體樣蛋白黏上去,把這張「偽裝良民證」封住,讓免疫系統能重新啟動。

但光拆掉偽裝還不夠,因為癌細胞還有另一位強大的盟友—一個起初是我軍,後來卻被癌細胞收買、滲透的「內奸」。它就是,轉化生長因子-β,縮寫 TGF-β。

先說清楚,TGF-β 原本是體內的秩序管理者,掌管著細胞的生長、分化、凋亡,還負責調節免疫反應。在正常細胞或癌症早期,它會和細胞表面的 TGFBR2 受體結合,啟動一連串訊號,抑制細胞分裂、減緩腫瘤生長。

但當癌症發展到後期,TGF-β 跟 TGFBR2 受體之間的合作開始出問題。癌細胞表面的 TGFBR2 受體可能突變或消失,導致 TGF-β 不但失去了原本的抑制作用,反而轉向幫癌細胞做事

它會讓細胞骨架(actin cytoskeleton)重新排列,讓細胞變長、變軟、更有彈性,還能長出像觸手的「偽足」(lamellipodia、filopodia),一步步往外移動、鑽進組織,甚至進入血管、展開全身轉移。

更糟的是,這時「黑化」的 TGF-β 還會壓抑免疫系統,讓 T 細胞和自然殺手細胞變得不再有攻擊力,同時刺激新血管生成,幫腫瘤打通營養補給線。

為了對抗這個內奸,默克在 Bintrafusp Alfa 的結構裡,加上了一個「TGF-β 陷阱(trap)」。就像 1989 年的 CD4 免疫黏附素用「假受體」去騙 HIV 一樣,這個融合蛋白在體內循環時,會用它身上的「陷阱」去捕捉並中和游離的 TGF-β。這讓 TGF-β 無法再跟腫瘤細胞或免疫細胞表面的天然受體結合,從而鬆開了那副壓抑免疫系統的腳鐐。

為了對抗這個內奸,默克在 Bintrafusp Alfa 的結構裡,加上了一個「TGF-β 陷阱(trap)」/ 情境圖來源:shutterstock

告別單一解方:融合蛋白的「全方位圍剿」戰

但,故事還沒完。我們之前提過,癌細胞之所以難纏,在於它會發展出各種「免疫逃脫」策略。

而近年我們發現,癌細胞的「偽良民證」至少就有兩張:一張是 PD-L1;另一張是 CD-47。CD47 是癌細胞向巨噬細胞展示的「別吃我」訊號,當它與免疫細胞上的 SIRPα 結合時,就會抑制吞噬反應。

為此,總部位於台北的漢康生技,決定打造能同時對付 PD-L1、CD-47,乃至 TGF-β 的三功能生物藥 HCB301。

雖然三功能融合蛋白聽起來只是「再接一段蛋白」而已,但實際上極不簡單。截至目前,全球都還沒有任何三功能抗體或融合蛋白批准上市,在臨床階段的生物候選藥,也只佔了整個生物藥市場的 1.6%。

漢康生技透過自己開發的 FBDB 平台技術,製作出了三功能的生物藥 HCB301,目前第一期臨床試驗已經在美國、中國批准執行。

免疫療法絕對是幫我們突破癌症的關鍵。但我們也知道癌症非常頑強,還有好幾道關卡我們無法攻克。既然單株抗體在戰場上顯得單薄,我們就透過融合蛋白,創造出擁有多種功能模組的「升級版無人機」。

融合蛋白強的不是個別的偵查或阻敵能力,而是一組可以「客製化組裝」的平台,用以應付癌細胞所有的逃脫策略。

Catch Me If You Can?融合蛋白的回答是:「We Can.」

未來癌症的治療戰場,也將從尋找「唯一解」,轉變成如何「全方位圍剿」癌細胞,避免任何的逃脫。

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

1
0

文字

分享

0
1
0
解密機器人如何學會思考、觸摸與變形
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/09 ・6820字 ・閱讀時間約 14 分鐘

本文與 Perplexity 合作,泛科學企劃執行

「Hello. I am… a robot.」

在我們的記憶裡,機器人的聲音就該是冰冷、單調,不帶一絲情感 。它們的動作僵硬,肢體不協調,像一個沒有靈魂的傀儡,甚至啟發我們創造了機械舞來模仿那獨特的笨拙可愛。但是,現今的機器人發展不再只會跳舞或模仿人聲,而是已經能獨立完成一場膽囊切除手術。

就在2025年,美國一間實驗室發表了一項成果:一台名為「SRT-H」的機器人(階層式手術機器人Transformer),在沒有人類醫師介入的情況下,成功自主完成了一場完整的豬膽囊切除手術。SRT-H 正是靠著從錯誤中學習的能力,最終在八個不同的離體膽囊上,達成了 100% 的自主手術成功率。

-----廣告,請繼續往下閱讀-----

這項成就的意義重大,因為過去機器人手術的自動化,大多集中在像是縫合這樣的單一「任務」上。然而,這一場完整的手術,是一個包含數十個步驟、需要連貫策略與動態調整的複雜「程序」。這是機器人首次在包含 17 個步驟的完整膽囊切除術中,實現了「步驟層次的自主性」。

這就引出了一個讓我們既興奮又不安的核心問題:我們究竟錯過了什麼?機器人是如何在我們看不見的角落,悄悄完成了從「機械傀儡」到「外科醫生」的驚人演化?

這趟思想探險,將為你解密 SRT-H 以及其他五款同樣具備革命性突破的機器人。你將看到,它們正以前所未有的方式,發展出生物般的觸覺、理解複雜指令、學會團隊合作,甚至開始自我修復與演化,成為一種真正的「準生命體」 。

所以,你準備好迎接這個機器人的新紀元了嗎?

-----廣告,請繼續往下閱讀-----

只靠模仿還不夠?手術機器人還需要學會「犯錯」與「糾正」

那麼,SRT-H 這位機器人的外科大腦,究竟藏著什麼秘密?答案就在它創新的「階層式框架」設計裡 。

你可以想像,SRT-H 的腦中,住著一個分工明確的兩人團隊,就像是漫畫界的傳奇師徒—黑傑克與皮諾可 。

  • 第一位,是動口不動手的總指揮「黑傑克」: 它不下達具體的動作指令,而是在更高維度的「語言空間」中進行策略規劃 。它發出的命令,是像「抓住膽管」或「放置止血夾」這樣的高層次任務指令 。
  • 第二位,是靈巧的助手「皮諾可」: 它負責接收黑傑克的語言指令,並將這些抽象的命令,轉化為機器手臂毫釐不差的精準運動軌跡 。

但最厲害的還不是這個分工,而是它們的學習方式。SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。但這還只是開始,研究人員在訓練過程中,會刻意讓它犯錯,並向它示範如何從抓取失敗、角度不佳等糟糕的狀態中恢復過來 。這種獨特的訓練方法,被稱為「糾正性示範」 。

SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。 / 圖片來源:shutterstock

這項訓練,讓 SRT-H 學會了一項外科手術中最關鍵的技能:當它發現執行搞砸了,它能即時識別偏差,並發出如「重試抓取」或「向左調整」等「糾正性指令」 。這套內建的錯誤恢復機制至關重要。當研究人員拿掉這個糾正能力後,機器人在遇到困難時,要不是完全失敗,就是陷入無效的重複行為中 。

-----廣告,請繼續往下閱讀-----

正是靠著這種從錯誤中學習、自我修正的能力,SRT-H 最終在八次不同的手術中,達成了 100% 的自主手術成功率 。

SRT-H 證明了機器人開始學會「思考」與「糾錯」。但一個聰明的大腦,足以應付更混亂、更無法預測的真實世界嗎?例如在亞馬遜的倉庫裡,機器人不只需要思考,更需要實際「會做事」。

要能精準地與環境互動,光靠視覺或聽覺是不夠的。為了讓機器人能直接接觸並處理日常生活中各式各樣的物體,它就必須擁有生物般的「觸覺」能力。

解密 Vulcan 如何學會「觸摸」

讓我們把場景切換到亞馬遜的物流中心。過去,這裡的倉儲機器人(如 Kiva 系統)就像放大版的掃地機器人,核心行動邏輯是極力「避免」與周遭環境發生任何物理接觸,只負責搬運整個貨架,再由人類員工挑出包裹。

-----廣告,請繼續往下閱讀-----

但 2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan。在亞馬遜的物流中心裡,商品被存放在由彈性帶固定的織物儲物格中,而 Vulcan 的任務是必須主動接觸、甚至「撥開」彈性織網,再從堆放雜亂的儲物格中,精準取出單一包裹,且不能造成任何損壞。

2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan / 圖片引用:https://www.aboutamazon.com/news

Vulcan 的核心突破,就在於它在「拿取」這個動作上,學會了生物般的「觸覺」。它靈活的機械手臂末端工具(EOAT, End-Of-Arm Tool),不僅配備了攝影機,還搭載了能測量六個自由度的力與力矩感測器。六個自由度包含上下、左右、前後的推力,和三個維度的旋轉力矩。這就像你的手指,裡頭分布著非常多的受器,不只能感測壓力、還能感受物體橫向拉扯、運動等感觸。

EOAT 也擁有相同精確的「觸覺」,能夠在用力過大之前即時調整力道。這讓 Vulcan 能感知推動一個枕頭和一個硬紙盒所需的力量不同,從而動態調整行為,避免損壞貨物。

其實,這更接近我們人類與世界互動的真實方式。當你想拿起桌上的一枚硬幣時,你的大腦並不會先計算出精準的空間座標。實際上,你會先把手伸到大概的位置,讓指尖輕觸桌面,再沿著桌面滑動,直到「感覺」到硬幣的邊緣,最後才根據觸覺決定何時彎曲手指、要用多大的力量抓起這枚硬幣。Vulcan 正是在學習這種「視覺+觸覺」的混合策略,先用攝影機判斷大致的空間,再用觸覺回饋完成最後精細的操作。

-----廣告,請繼續往下閱讀-----

靠著這項能力,Vulcan 已經能處理亞馬遜倉庫中約 75% 的品項,並被優先部署來處理最高和最低層的貨架——這些位置是最容易導致人類員工職業傷害的位置。這也讓自動化的意義,從單純的「替代人力」,轉向了更具建設性的「增強人力」。

SRT-H 在手術室中展現了「專家級的腦」,Vulcan 在倉庫中演化出「專家級的手」。但你發現了嗎?它們都還是「專家」,一個只會開刀,一個只會揀貨。雖然這種「專家型」設計能有效規模化、解決痛點並降低成本,但機器人的終極目標,是像人類一樣成為「通才」,讓單一機器人,能在人類環境中執行多種不同任務。

如何教一台機器人「舉一反三」?

你問,機器人能成為像我們一樣的「通才」嗎?過去不行,但現在,這個目標可能很快就會實現了。這正是 NVIDIA 的 GR00T 和 Google DeepMind 的 RT-X 等專案的核心目標。

過去,我們教機器人只會一個指令、一個動作。但現在,科學家們換了一種全新的教學思路:停止教機器人完整的「任務」,而是開始教它們基礎的「技能基元」(skill primitives),這就像是動作的模組。

-----廣告,請繼續往下閱讀-----

例如,有負責走路的「移動」(Locomotion) 基元,和負責抓取的「操作」(Manipulation) 基元。AI 模型會透過強化學習 (Reinforcement Learning) 等方法,學習如何組合這些「技能基元」來達成新目標。

舉個例子,當 AI 接收到「從冰箱拿一罐汽水給我」這個新任務時,它會自動將其拆解為一系列已知技能的組合:首先「移動」到冰箱前、接著「操作」抓住把手、拉開門、掃描罐子、抓住罐子、取出罐子。AI T 正在學會如何將這些單一的技能「融合」在一起。有了這樣的基礎後,就可以開始來大量訓練。

當多重宇宙的機器人合體練功:通用 AI 的誕生

好,既然要學,那就要練習。但這些機器人要去哪裡獲得足夠的練習機會?總不能直接去你家廚房實習吧。答案是:它們在數位世界裡練習

NVIDIA 的 Isaac Sim 等平台,能創造出照片級真實感、物理上精確的模擬環境,讓 AI 可以在一天之內,進行相當於數千小時的練習,獨自刷副本升級。這種從「模擬到現實」(sim-to-real)的訓練管線,正是讓訓練這些複雜的通用模型變得可行的關鍵。

-----廣告,請繼續往下閱讀-----

DeepMind 的 RT-X 計畫還發現了一個驚人的現象:用來自多種「不同類型」機器人的數據,去訓練一個單一的 AI 模型,會讓這個模型在「所有」機器人上表現得更好。這被稱為「正向轉移」(positive transfer)。當 RT-1-X 模型用混合數據訓練後,它在任何單一機器人上的成功率,比只用該機器人自身數據訓練的模型平均提高了 50%。

這就像是多重宇宙的自己各自練功後,經驗值合併,讓本體瞬間變強了。這意味著 AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。

AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。/ 圖片來源:shutterstock

不再是工程師,而是「父母」: AI 的新學習模式

這也導向了一個科幻的未來:或許未來可能存在一個中央「機器人大腦」,它可以下載到各種不同的身體裡,並即時適應新硬體。

這種學習方式,也從根本上改變了我們與機器人的互動模式。我們不再是逐行編寫程式碼的工程師,而是更像透過「示範」與「糾正」來教導孩子的父母。

NVIDIA 的 GR00T 模型,正是透過一個「數據金字塔」來進行訓練的:

  • 金字塔底層: 是大量的人類影片。
  • 金字塔中層: 是海量的模擬數據(即我們提過的「數位世界」練習)。
  • 金字塔頂層: 才是最珍貴、真實的機器人操作數據。

這種模式,大大降低了「教導」機器人新技能的門檻,讓機器人技術變得更容易規模化與客製化。

當機器人不再是「一個」物體,而是「任何」物體?

我們一路看到了機器人如何學會思考、觸摸,甚至舉一反三。但這一切,都建立在一個前提上:它們的物理形態是固定的。

但,如果連這個前提都可以被打破呢?這代表機器人的定義不再是固定的形態,而是可變的功能:它能改變身體來適應任何挑戰,不再是一台單一的機器,而是一個能根據任務隨選變化的物理有機體。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院特別具有代表性,該學院的仿生機器人實驗室(Bioinspired Robotics Group, BIRG)2007 年就打造模組化自重構機器人 Roombots。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院(EPFL)特別具有代表性。該學院的仿生機器人實驗室(BIRG)在 2007 年就已打造出模組化自重構機器人 Roombots。而 2023 年,來自 EPFL 的另一個實驗室——可重組機器人工程實驗室(RRL),更進一步推出了 Mori3,這是一套把摺紙藝術和電腦圖學巧妙融合的模組化機器人系統。

2023 年來自 EPFL 的另一個實驗室—可重組機器人工程實驗室(RRL)推出了 Mori3 © 2023 Christoph Belke, EPFL RRL

Mori3 的核心,是一個個小小的三角形模組。別看它簡單,每個模組都是一個獨立的機器人,有自己的電源、馬達、感測器和處理器,能獨立行動,也能和其他模組合作。最厲害的是,它的三條邊可以自由伸縮,讓這個小模組本身就具備「變形」能力。

當許多 Mori3 模組連接在一起時,就能像一群活的拼圖一樣,從平面展開,組合成各種三維結構。研究團隊將這種設計稱為「物理多邊形網格化」。在電腦圖學裡,我們熟悉的 3D 模型,其實就是由許多多邊形(通常是三角形)拼湊成的網格。Mori3 的創新之處,就是把這種純粹的數位抽象,真正搬到了現實世界,讓模組們化身成能活動的「實體網格」。

這代表什麼?團隊已經展示了三種能力:

  • 移動:他們用十個模組能組合成一個四足結構,它能從平坦的二維狀態站立起來,並開始行走。這不只是結構變形,而是真正的協調運動。
  • 操縱: 五個模組組合成一條機械臂,撿起物體,甚至透過末端模組的伸縮來擴大工作範圍。
  • 互動: 模組們能形成一個可隨時變形的三維曲面,即時追蹤使用者的手勢,把手的動作轉換成實體表面的起伏,等於做出了一個會「活」的觸控介面。

這些展示,不只是實驗室裡的炫技,而是真實證明了「物理多邊形網格化」的潛力:它不僅能構建靜態的結構,還能創造具備複雜動作的動態系統。而且,同一批模組就能在不同情境下切換角色。

想像一個地震後的救援場景:救援隊帶來的不是一台笨重的挖土機,而是一群這樣的模組。它們首先組合成一條長長的「蛇」形機器人,鑽入瓦礫縫隙;一旦進入開闊地後,再重組成一隻多足的「蜘蛛」,以便在不平的地面上穩定行走;發現受困者時,一部分模組分離出來形成「支架」撐住搖搖欲墜的橫樑,另一部分則組合成「夾爪」遞送飲水。這就是以任務為導向的自我演化。

這項技術的終極願景,正是科幻中的概念:可程式化物質(Programmable Matter),或稱「黏土電子學」(Claytronics)。想像一桶「東西」,你可以命令它變成任何你需要的工具:一支扳手、一張椅子,或是一座臨時的橋樑。

未來,我們只需設計一個通用的、可重構的「系統」,它就能即時創造出任務所需的特定機器人。這將複雜性從實體硬體轉移到了規劃重構的軟體上,是一個從硬體定義的世界,走向軟體定義的物理世界的轉變。

更重要的是,因為模組可以隨意分開與聚集,損壞時也只要替換掉部分零件就好。足以展現出未來機器人的適應性、自我修復與集體行為。當一群模組協作時,它就像一個超個體,如同蟻群築橋。至此,「機器」與「有機體」的定義,也將開始動搖。

從「實體探索」到「數位代理」

我們一路見證了機器人如何從單一的傀儡,演化為學會思考的外科醫生 (SRT-H)、學會觸摸的倉儲專家 (Vulcan)、學會舉一反三的通才 (GR00T),甚至是能自我重構成任何形態的「可程式化物質」(Mori3)。

但隨著機器人技術的飛速發展,一個全新的挑戰也隨之而來:在一個 AI 也能生成影像的時代,我們如何分辨「真實的突破」與「虛假的奇觀」?

舉一個近期的案例:2025 年 2 月,一則影片在網路上流傳,顯示一台人形機器人與兩名人類選手進行羽毛球比賽,並且輕鬆擊敗了人類。我的第一反應是懷疑:這太誇張了,一定是 AI 合成的影片吧?但,該怎麼驗證呢?答案是:用魔法打敗魔法。

在眾多 AI 工具中,Perplexity 特別擅長資料驗證。例如這則羽球影片的內容貼給 Perplexity,它馬上就告訴我:該影片已被查證為數位合成或剪輯。但它並未就此打住,而是進一步提供了「真正」在羽球場上有所突破的機器人—來自瑞士 ETH Zurich 團隊的 ANYmal-D

接著,選擇「研究模式」,就能深入了解 ANYmal-D 的詳細原理。原來,真正的羽球機器人根本不是「人形」,而是一台具備三自由度關節的「四足」機器人。

如果你想更深入了解,Perplexity 的「實驗室」功能,還能直接生成一份包含圖表、照片與引用來源的完整圖文報告。它不只介紹了 ANYmal-D 在羽球上的應用,更詳細介紹了瑞士聯邦理工學院發展四足機器人的完整歷史:為何選擇四足?如何精進硬體與感測器結構?以及除了運動領域外,四足機器人如何在關鍵的工業領域中真正創造價值。

AI 代理人:數位世界的新物種

從開刀、揀貨、打球,到虛擬練功,這些都是機器人正在學習「幫我們做」的事。但接下來,機器人將獲得更強的「探索」能力,幫我們做那些我們自己做不到的事。

這就像是,傳統網路瀏覽器與 Perplexity 的 Comet 瀏覽器之間的差別。Comet 瀏覽器擁有自主探索跟決策能力,它就像是數位世界裡的機器人,能成為我們的「代理人」(Agent)

它的核心功能,就是拆解過去需要我們手動完成的多步驟工作流,提供「專業代工」,並直接交付成果。

例如,你可以直接對它說:「閱讀這封會議郵件,檢查我的行事曆跟代辦事項,然後草擬一封回信。」或是直接下達一個複雜的指令:「幫我訂 Blue Origin 的太空旅遊座位,記得要來回票。」

接著,你只要兩手一攤,Perplexity 就會接管你的瀏覽器,分析需求、執行步驟、最後給你結果。你再也不用自己一步步手動搜尋,或是在不同網站上重複操作。

AI 代理人正在幫我們探索險惡的數位網路,而實體機器人,則在幫我們前往真實的物理絕境。

立即點擊專屬連結 https://perplexity.sng.link/A6awk/k74… 試用 Perplexity吧! 現在申辦台灣大哥大月付 599(以上) 方案,還可以獲得 1 年免費 Perplexity Pro plan 喔!(價值 新台幣6,750)

◆Perplexity 使用實驗室功能對 ANYmal-D 與團隊的全面分析 https://drive.google.com/file/d/1NM97…

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

1
0

文字

分享

0
1
0
數智驅動未來:從信任到執行,AI 為企業創新賦能
鳥苷三磷酸 (PanSci Promo)_96
・2025/01/13 ・4938字 ・閱讀時間約 10 分鐘

本文由 鼎新數智 與 泛科學 共同規劃與製作

你有沒有想過,當 AI 根據病歷與 X 光片就能幫你診斷病症,或者決定是否批准貸款,甚至從無人機發射飛彈時,它的每一步「決策」是怎麼來的?如果我們不能知道 AI 的每一個想法步驟,對於那些 AI 輔助的診斷和判斷,要我們如何放心呢?

馬斯克與 OpenAI 的奧特曼鬧翻後,創立了新 AI 公司 xAI,並推出名為 Grok 的產品。他宣稱目標是以開源和可解釋性 AI 挑戰其他模型,而 xAI 另一個意思是 Explainable AI 也就是「可解釋性 AI」。

如今,AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?

-----廣告,請繼續往下閱讀-----
AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?圖/pexels

黑盒子模型背後的隱藏秘密

無法解釋的 AI 究竟會帶來多少問題?試想,現在許多銀行和貸款機構已經使用 AI 評估借貸申請者的信用風險,但這些模型往往如同黑箱操作。有人貸款被拒,卻完全不知原因,感覺就像被分手卻不告訴理由。更嚴重的是,AI 可能擅自根據你的住所位置或社會經濟背景給出負面評價,這些與信用風險真的相關嗎?這種不透明性只會讓弱勢群體更難融入金融體系,加劇貧富差距。這種不透明性,會讓原本就已經很難融入金融體系的弱勢群體,更加難以取得貸款,讓貧富差距越來越大,雪上加霜。

AI 不僅影響貸款,還可能影響司法公正性。美國部分法院自 2016 年起使用「替代性制裁犯罪矯正管理剖析軟體」 COMPAS 這款 AI 工具來協助量刑,試圖預測嫌犯再犯風險。然而,這些工具被發現對有色人種特別不友好,往往給出偏高的再犯風險評估,導致更重的刑罰和更嚴苛的保釋條件。更令人擔憂的是,這些決策缺乏透明度,AI 做出的決策根本沒法解釋,這讓嫌犯和律師無法查明問題根源,結果司法公正性就這麼被悄悄削弱了。

此外,AI 在醫療、社交媒體、自駕車等領域的應用,也充滿類似挑戰。例如,AI 協助診斷疾病,但若原因報告無法被解釋,醫生和患者又怎能放心?同樣地,社群媒體或是 YouTube 已經大量使用 AI 自動審查,以及智慧家居或工廠中的黑盒子問題,都像是一場越來越複雜的魔術秀——我們只看到結果,卻無法理解過程。這樣的情況下,對 AI 的信任感就成為了一個巨大的挑戰。

為什麼人類設計的 AI 工具,自己卻無法理解?

原因有二。首先,深度學習模型結構複雜,擁有數百萬參數,人類要追蹤每個輸入特徵如何影響最終決策結果,難度極高。例如,ChatGPT 中的 Transformer 模型,利用注意力機制(Attention Mechanism)根據不同詞之間的重要性進行特徵加權計算,因為機制本身涉及大量的矩陣運算和加權計算,這些數學操作使得整個模型更加抽象、不好理解。

-----廣告,請繼續往下閱讀-----

其次,深度學習模型會會從資料中學習某些「特徵」,你可以當作 AI 是用畫重點的方式在學習,人類劃重點目的是幫助我們加速理解。AI 的特徵雖然也能幫助 AI 學習,但這些特徵往往對人類來說過於抽象。例如在影像辨識中,人類習慣用眼睛、嘴巴的相對位置,或是手指數量等特徵來解讀一張圖。深度學習模型卻可能會學習到一些抽象的形狀或紋理特徵,而這些特徵難以用人類語言描述。

深度學習模型通常採用分佈式表示(Distributed Representation)來編碼特徵,意思是將一個特徵表示為一個高維向量,每個維度代表特徵的不同方面。假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。對 AI 而言,這是理解世界的方式,但對人類來說,卻如同墨跡測驗般難以解讀。

假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。圖/unsplash

試想,AI 協助診斷疾病時,若理由是基於醫生都無法理解的邏輯,患者即使獲得正確診斷,也會感到不安。畢竟,人們更相信能被理解的東西。

打開黑盒子:可解釋 AI 如何運作?我們要如何教育 AI?

首先,可以利用熱圖(heatmap)或注意力圖這類可視化技術,讓 AI 的「思維」有跡可循。這就像行銷中分析消費者的視線停留在哪裡,來推測他們的興趣一樣。在卷積神經網絡和 Diffusion Models 中 ,當 AI 判斷這張照片裡是「貓」還是「狗」時,我需要它向我們展示在哪些地方「盯得最緊」,像是耳朵的形狀還是毛色的分布。

-----廣告,請繼續往下閱讀-----

其次是局部解釋,LIME 和 SHAP 是兩個用來發展可解釋 AI 的局部解釋技術。

SHAP 的概念來自博弈,它將每個特徵看作「玩家」,而模型的預測結果則像「收益」。SHAP 會計算每個玩家對「收益」的貢獻,讓我們可以了解各個特徵如何影響最終結果。並且,SHAP 不僅能透過「局部解釋」了解單一個結果是怎麼來的,還能透過「全局解釋」理解模型整體的運作中,哪些特徵最重要。

以實際的情景來說,SHAP 可以讓 AI 診斷出你有某種疾病風險時,指出年齡、體重等各個特徵的影響。

LIME 的運作方式則有些不同,會針對單一個案建立一個簡單的模型,來近似原始複雜模型的行為,目的是為了快速了解「局部」範圍內的操作。比如當 AI 拒絕你的貸款申請時,LIME 可以解釋是「收入不穩定」還是「信用紀錄有問題」導致拒絕。這種解釋在 Transformer 和 NLP 應用中廣泛使用,一大優勢是靈活且計算速度快,適合臨時分析不同情境下的 AI 判斷。比方說在醫療場景,LIME 可以幫助醫生理解 AI 為何推薦某種治療方案,並說明幾個主要原因,這樣醫生不僅能更快做出決策,也能增加患者的信任感。

-----廣告,請繼續往下閱讀-----

第三是反事實解釋:如果改變一點點,會怎麼樣?

如果 AI 告訴你:「這家銀行不會貸款給你」,這時你可能會想知道:是收入不夠,還是年齡因素?這時你就可以問 AI:「如果我年輕五歲,或者多一份工作,結果會怎樣?」反事實解釋會模擬這些變化對結果的影響,讓我們可以了解模型究竟是如何「權衡利弊」。

最後則是模型內部特徵的重要性排序。這種方法能顯示哪些輸入特徵對最終結果影響最大,就像揭示一道菜中,哪些調味料是味道的關鍵。例如在金融風險預測中,模型可能指出「收入」影響了 40%,「消費習慣」占了 30%,「年齡」占了 20%。不過如果要應用在像是 Transformer 模型等複雜結構時,還需要搭配前面提到的 SHAP 或 LIME 以及可視化技術,才能達到更完整的解釋效果。

講到這裡,你可能會問:我們距離能完全信任 AI 還有多遠?又或者,我們真的應該完全相信它嗎?

-----廣告,請繼續往下閱讀-----

我們終究是想解決人與 AI 的信任問題

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。因此,AI 既要「可解釋」,也要「能代理」。

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。圖/unsplash

舉例來說,當一家公司要做一個看似「簡單」的決策時,背後的過程其實可能極為複雜。例如,快時尚品牌決定是否推出新一季服裝,不僅需要考慮過去的銷售數據,還得追蹤熱門設計趨勢、天氣預測,甚至觀察社群媒體上的流行話題。像是暖冬來臨,厚外套可能賣不動;或消費者是否因某位明星愛上一種顏色,這些細節都可能影響決策。

這些數據來自不同部門和來源,龐大的資料量與錯綜關聯使企業判斷變得困難。於是,企業常希望有個像經營大師的 AI 代理人,能吸收數據、快速分析,並在做決定時不僅給出答案,還能告訴你「為什麼要這麼做」。

傳統 AI 像個黑盒子,而可解釋 AI (XAI)則清楚解釋其判斷依據。例如,為什麼不建議推出厚外套?可能理由是:「根據天氣預測,今年暖冬概率 80%,過去三年數據顯示暖冬時厚外套銷量下降 20%。」這種透明解釋讓企業更信任 AI 的決策。

-----廣告,請繼續往下閱讀-----

但會解釋還不夠,AI 還需能真正執行。這時,就需要另一位「 AI 代理人」上場。想像這位 AI 代理人是一位「智慧產品經理」,大腦裝滿公司規則、條件與行動邏輯。當客戶要求變更產品設計時,這位產品經理不會手忙腳亂,而是按以下步驟行動:

  1. 檢查倉庫物料:庫存夠不夠?有沒有替代料可用?
  2. 評估交期影響:如果需要新物料,供應商多快能送到?
  3. 計算成本變化:用新料會不會超出成本預算?
  4. 做出最優判斷,並自動生成變更單、工單和採購單,通知各部門配合執行。

這位 AI 代理人不僅能自動處理每個環節,還會記錄每次決策結果,學習如何變得更高效。隨時間推移,這位「智慧產品經理」的判斷將更聰明、決策速度更快,幾乎不需人工干預。更重要的是,這些判斷是基於「以終為始」的原則,為企業成長目標(如 Q4 業績增長 10%)進行連續且動態地自我回饋,而非傳統系統僅月度檢核。

這兩位 AI 代理人的合作,讓企業決策流程不僅透明,還能自動執行。這正是數智驅動的核心,不僅依靠數據驅動決策,還要能解釋每一個選擇,並自動行動。這個過程可簡化為 SUPA,即「感知(Sensing)→ 理解(Understanding)→ 規劃(Planning)→ 行動(Acting)」的閉環流程,隨著數據的變化不斷進化。

偉勝乾燥工業為例,他們面臨高度客製化與訂單頻繁變更的挑戰。導入鼎新 METIS 平台後,偉勝成功將數智驅動融入業務與產品開發,專案準時率因此提升至 80%。他們更將烤箱技術與搬運機器人結合,開發出新形態智慧化設備,成功打入半導體產業,帶動業績大幅成長,創造下一個企業的增長曲線。

-----廣告,請繼續往下閱讀-----

值得一提的是,數智驅動不僅帶動業務增長,還讓員工擺脫繁瑣工作,讓工作更輕鬆高效。

數智驅動的成功不僅依賴技術,還要與企業的商業策略緊密結合。為了讓數智驅動真正發揮作用,企業首先要確保它服務於具體的業務需求,而不是為了技術而技術。

這種轉型需要有策略、文化和具體應用場景的支撐,才能讓數智驅動真正成為企業持續增長的動力。

還在猶豫數智驅動的威力?免費上手企業 AI 助理!👉 企業 AI 體驗
現在使用專屬邀請碼《 KP05 》註冊就享知:https://lihi.cc/EDUk4
訂閱泛科學獨家知識頻道,深入科技趨勢與議題內容。

👉立即免費加入

-----廣告,請繼續往下閱讀-----