84

1
1

文字

分享

84
1
1

加里尤樂夫斯基充斥謬誤的素食演講.上

朱家安
・2012/03/16 ・3402字 ・閱讀時間約 7 分鐘 ・SR值 508 ・六年級

有人推薦我這個影片,Gary Yourofsky支持全素食(vegan)生活的演講。我看了之後發現Gary的演講其實錯誤百出,並且,就算你對科學的了解只有國中生程度,也能抓得出他犯的那些推論謬誤。然而,這個影片在中文世界到處被轉貼,曝光率很高,並且受到的評論幾乎是一面倒的褒獎。(在這篇文章中,我只討論演講前半段,關於後半,我推薦大家讀Alfredego寫的「加里尤樂夫斯基充斥謬誤的素食演講.下」

我可以理解為什麼Gary受到支持,畢竟大家都有同情心,喜歡聽那些不殺生、愛護動物的教誨。然而,就算我們不該殺生,也不代表所有支持不該殺生的理據都是正確的。若我們時時刻刻只想確保別人的道德立場跟我們一樣,而不檢查他們提出來的理據是否恰當,當重要的道德分歧出現時,我們很有可能已經失去分析問題並基於各種理據進行道德討論與溝通的能力。因此,我決定寫文章檢討Gary的錯誤。若你跟我一樣,曾經受到朋友推薦去看這則影片,或許你可以把這篇文章也推薦給你的朋友,提供他反思的機會。

05:20
『有人道屠宰這種事嗎?想想看,有人道強姦、人道兒童性騷擾、人道大屠殺這類東西嗎?』

在這裡蓋瑞攻擊吃肉者可能的辯護:我們雖然吃肉,但這些肉都來自人道屠宰,所以不至於造成太大傷害。蓋瑞主張根本無所謂人道屠宰這種事情,就像無所謂人道強姦、人道兒童性騷擾、人道大屠殺一樣。同情地理解,蓋瑞想說的應該是:「既然『人道』不會讓強姦、兒童性騷擾和大屠殺變得可被接受,它也不會讓屠宰變得可被接受」。然而,真的嗎?

據我所知,人道屠宰的初衷是在屠宰時(甚至飼養動物時)減少動物的不適和痛苦。顯然你不可能在強姦、性騷擾、大屠殺時藉由降低被害人的痛苦來合理化自己的行為,不過,這是因為就算你在強姦、性騷擾、大屠殺時將被害人的痛苦降到最低,你依然侵犯了他們的權利。人除了有不遭受痛苦的權利之外,也有不被侵犯與殺害的權利(就算這些侵犯與殺害不知怎地不太會帶來痛苦),所以人道強姦、人道兒童性騷擾、人道大屠殺依然不可接受,但是動物有這樣的權利嗎?當然Gary會說有,不過在他提出好理由支持這個想法之前,不應該把它當作隱藏前提來用。

-----廣告,請繼續往下閱讀-----

11:55
『每個人小時候都是動物權主義者,因為小時候動物是我們的好朋友,讓我們開心,而我們也願意做任何事情來讓他們開心,若有人在我們面前虐待動物,我們會尖叫大哭。這是因為我們以前懂得對與錯,懂得如何虐待動物。』

Gary認為小孩比受到文化和學習污染的成人更懂得倫理道德,這沒道理。隨便一些例子都能說明小孩的反應不比我們更「道德正確」。看到鱷魚用大顎撕裂鹿、看到有人一邊咒罵一邊把盤子摔破,這些事情都能讓小朋友尖叫痛哭,然而這並不代表野生的鹿有「權利」不被鱷魚吃,或者盤子有「權利」不被摔破。(此外,我有提到某些小孩玩貓的創意連成人都自嘆不如嗎?)

12:50
『單純的仇恨是學習而來的,小朋友不會仇恨猶太人、同性戀、回教徒…同樣地,物種歧視也一樣。』

我不相信單純的仇恨是學習而來的。仇恨作為一種情緒,不能是學來的,否則小朋友就得要先學習仇恨,才能討厭(hate)那些欺負他的人和拿走他的糖果的人。然而,我相信蓋瑞想講的並不是這個,他想講的應該是,針對某些社會族群的仇恨是學習來的:仇恨作為一種情緒是天生的,會在人際互動中自然出現,不過,在複雜的社會當中,要仇視哪一群跟你並沒有直接人際互動的人?這件事情就是學習而來的。如果沒有人跟你說同性戀或回教徒跟我們都不一樣,他們會做一些噁心的事情,你很難自動開始仇視同性戀和回教徒(你甚至可能不會發現有「同性戀」和「回教徒」這些類別)。

然而,在這種意義下,蓋瑞就很難說我們對於其它動物的無情是學習來的。(我有提到某些小孩玩貓的創意連成人都自嘆不如嗎?)此外,就算「我們仇視某群人」這件事情是學習來的,也不代表這樣的仇視在道德上有問題。最簡單的例子:你仇視不誠實的政客嗎?

蓋瑞在這個論點上犯的錯,和上一個類似。他主張,因為成人的想法已被社會污染,所以小朋友的道德觀才是我們應該遵循的典範,但事實上兒童不但不是道德的專家,而且有時候會錯得比我們還離譜。蓋瑞的這種錯誤,我想可以被叫做「自然就是美」的謬誤。

-----廣告,請繼續往下閱讀-----

13:30
『「物種歧視」背後的想法就是:因為人類比其它物種都優越,所以我們有不受限制的權利,去奴役和殺害其它物種。』

這個描述太強了,一個人吃肉,並不代表他擁抱「我們有不受限制的權利,去奴役和殺害其它物種」這個想法。蓋瑞在這裡就像卑鄙的律師,把搶劫了黑人的白種被告描述成因為種族歧視所以行兇。

14:30
『然而,歧視其它物種,跟歧視同性戀、猶太人和回教徒有什麼不一樣?歧視作為一個整體必須被一視同仁,若你不同意種族歧視,你也不能同意物種歧視。』

這種「若某種歧視是錯的,則全部的歧視都是錯的」的論點,可能奠基於上面那個已經被打爆的「仇視通通都是學習而來的」的想法。然而,這並不是這個論點的唯一問題。

簡單地問:若猪是一種物種,為什麼水稻不是?如果水稻和豬都是物種,憑什麼我們可以基於歧視水稻而吃它們,卻不能基於歧視豬而吃它們?若蓋瑞要死守物種歧視是純粹惡的這個想法,他一定得提供方法避免自己的想法被過度推廣成我們連植物都不能吃。然而,當他提供了這樣的方法(例如植物不會痛),則有可能危及自己論點的一致性,下面關於影片的討論就是一個例子。

16:13
『(蓋瑞播放一段宰殺的影片)你可能覺得這段影片很噁心而無法控制的遮起眼或別過頭去,然而,想想看,如果這(些影片裡發生的過程)對你的眼睛不好,(它們的產品)怎麼會對你的胃好呢?』

「如果這對你的眼睛不好,怎麼會對你的胃好呢?」顯然是不當類比,你可以很容易想到反例:天天鍛鍊身體的恐龍女,身上的肉一定比缺乏運動的正妹可口。不過,同情地理解,蓋瑞(就和其它所有在演講裡放噁心影片的素食推動者一樣)應該只是想利用影片裡的殘忍和痛苦引發觀眾的同情心。

-----廣告,請繼續往下閱讀-----

然而,這個意圖本身就和蓋瑞前面的論點矛盾。記得前面蓋瑞主張根本無所謂人道屠宰這回事嗎?我想,如果我們在觀看殘忍痛苦的屠宰過程時油然而生的心痛表現了任何的道德價值,人道屠宰的存在,就是為了避免這樣的道德價值被踐踏。你感到噁心,是因為動物在不人道的對待下很痛苦,如果這是一種道德錯誤,那麼你就不能不承認,人道屠宰是減低這種道德錯誤的手段。在這種情況下,你就不能說「無所謂人道屠宰」這種話。

25:40
『(回想剛剛的影片,並重述世界上有多少動物受到殘忍對待)我們有什麼理由不把(這些動物受到的)傷害最小化?』

又來了。若你在乎傷害是否被減輕,你就不能說「無所謂人道屠宰」這種話。

26:15
『在將他們已經承受的殘忍和死亡最大化之後,我們竟然還要把他們吃掉?這根本就是在別人的傷口上撒鹽。』

到了這裡,我已經不清楚蓋瑞到底是基於什麼道德理由鼓吹全素了。我可以同意「避免痛苦」、「避免侵害權利」都是可能的茹素道德理由,但有什麼理由讓你認為「吃掉那些已經被宰殺的動物屍體」是「宰殺動物」之外又一道德錯誤?吃掉屍體這件事情本身並不侵犯權利,也不會造成額外痛苦,不是嗎?(當然,若食用屍體這件事情造成更多動物被宰殺,則又另當別論,但這顯然不是蓋瑞在這裡的意思)。這段話讓我認為蓋瑞已經不是來講理的,而只是在潑撒自己的情緒。

 

以上是這部演講的前半小時包含的錯誤,它們已摧毀了我對Gary的信任。想想看,有多少人會把自己演講的前半小時統統用來鬼扯,將真正有道理的論點全放在後半部?

-----廣告,請繼續往下閱讀-----

然而,Gary在演講的後半段談及人類生理學和營養學,我也很好奇他在多大程度上對這些「科學成果」進行誇大和過度推論。於此我自己沒有專業能力判斷,所以希望有興趣的專家也能看看影片,然後寫篇文章告訴我們,Gary宣稱的那些科學結論哪些可信,哪些則否。若真的有這樣的文章被寫出來,請想辦法聯絡我,我很樂意在這篇文章放超連結,也願意代為詢問是否能將其刊登在泛科學。

最後,我自己不覺得吃肉有道德問題,但我也相信可以有比較不鬼扯的說法能提供我們吃全素的好理由。不過可惜的是,包含這些說法的文章或演講似乎總是不夠聳動而無法受到重視,更別說是被標上「最棒的」然後放上youtube了。

本文修改自哲學哲學雞蛋糕

-----廣告,請繼續往下閱讀-----
文章難易度
所有討論 84
朱家安
19 篇文章 ・ 6 位粉絲
哲學研究生,努力用簡單有趣的方式推銷理性思考和分析哲學。

0

2
1

文字

分享

0
2
1
「融合蛋白」如何全方位圍剿狡猾癌細胞
鳥苷三磷酸 (PanSci Promo)_96
・2025/11/07 ・5944字 ・閱讀時間約 12 分鐘

-----廣告,請繼續往下閱讀-----

本文與 TRPMA 台灣研發型生技新藥發展協會合作,泛科學企劃執行

我們知道癌症是台灣人健康的頭號公敵。 為此,我們花了很多時間介紹最新、最有效的抗癌方法之一:免疫療法

免疫療法中最重要的技術就是抗體藥物。科學家會人工製造一批抗體去標記癌細胞。它們就像戰場上的偵察無人機,能精準鎖定你體內的敵人——癌細胞,為它們打上標記,然後引導你的免疫系統展開攻擊。

這跟化療、放射線治療那種閉著眼睛拿機槍亂掃不同。免疫療法是重新叫醒你的免疫系統,為身體「上buff (增益) 」來抗癌,副作用較低,因此備受好評。

-----廣告,請繼續往下閱讀-----

但尷尬的是,經過幾年的臨床考驗,科學家發現:光靠抗體對抗癌症,竟然已經不夠用了。

事情是這樣的,臨床上醫生與科學家逐漸發現:這個抗體標記,不是容易損壞,就是癌細胞同時設有多個陷阱關卡,只靠叫醒免疫細胞,還是難以發揮戰力。

但好消息是,我們的生技工程也大幅進步了。科學家開始思考:如果這台偵察無人機只有「標記」這一招不夠用,為什麼不幫它升級,讓它多學幾招呢?

這個能讓免疫藥物(偵察無人機)大進化的訓練器,就是今天的主角—融合蛋白(fusion protein)

-----廣告,請繼續往下閱讀-----
融合蛋白(fusion protein)/ 圖片來源:wikipedia

融合蛋白是什麼?

免疫療法遇到的問題,我們可以這樣理解:想像你的身體是一座國家,病毒、細菌、腫瘤就是入侵者;而抗體,就是我們派出的「偵察無人機」。

當我們透過注射放出這支無人機群進到體內,它能迅速辨識敵人、緊抓不放,並呼叫其他免疫單位(友軍)一同解決威脅。過去 20 年,最強的偵查機型叫做「單株抗體」。1998年,生技公司基因泰克(Genentech)推出的藥物赫賽汀(Herceptin),就是一款針對 HER2 蛋白的單株抗體,目標是治療乳癌。

這支無人機群為什麼能對抗癌症?這要歸功於它「Y」字形的小小抗體分子,構造看似簡單,卻蘊藏巧思:

  • 「Y」 字形上面的兩隻「叉叉」是敵人偵測器,能找到敵人身上的抗原特徵,並黏上去,稱為抗體結合區「Fab 區域」。
  • 「Y」 字形的「尾巴」就是我們說的「標籤」,它能通知免疫系統啟動攻擊,稱為結晶區域片段「Fc 區域」。具體來說,當免疫細胞在體內巡邏,免疫細胞上的 Fc 受體 (FcR) 會和 Fc區域結合,進而認出病原體或感染細胞,接著展開清除。

更厲害的是,這個 Fc 區域標籤還能加裝不同功能。一般來說,人體內多餘的分子,會被定期清除。例如,細胞內會有溶酶體不斷分解多餘的物質,或是血液經過肝臟時會被代謝、分解。那麼,人造抗體對身體來說,屬於外來的東西,自然也會被清除。

-----廣告,請繼續往下閱讀-----

而 Fc區域會與細胞內體上的Fc受體結合,告訴細胞「別分解我」的訊號,阻止溶酶體的作用。又或是單純把標籤做的超大,例如接上一段長長的蛋白質,或是聚乙二醇鏈,讓整個抗體分子的大小,大於腎臟過濾孔的大小,難以被腎臟過濾,進而延長抗體在體內的存活時間。

偵測器(Fab)加上標籤(Fc)的結構,使抗體成為最早、也最成功的「天然設計藥物」。然而,當抗體在臨床上逐漸普及,一個又一個的問題開始浮現。抗體的強項在於「精準鎖定」,但這同時也是它的限制。

「Y」 字形上面的兩隻「叉叉」是敵人偵測器,能找到敵人身上的抗原特徵,並黏上去,稱為抗體結合區「Fab 區域」/ 圖片來源:shutterstock

第一個問題:抗體只能打「魔王」,無法毀掉「魔窟」。 

抗體一定要有一個明確的「標的物」才能發揮作用。這讓它在針對「腫瘤」或「癌細胞本身」時非常有效,因為敵人身上有明顯標記。但癌細胞的形成與惡化,是細胞在「生長、分裂、死亡、免疫逃脫」這些訊號通路上被長期誤導的結果。抗體雖然勇猛,卻只能針對已經帶有特定分子的癌細胞魔王,無法摧毀那個孕育魔王的系統魔窟。這時,我們真正欠缺的是能「調整」、「模擬」或「干擾」這些錯誤訊號的藥物。

-----廣告,請繼續往下閱讀-----

第二個問題:開發產線的限制。

抗體的開發,得經過複雜的細胞培養與純化程序。每次改變結構或目標,幾乎都要重新開發整個系統。這就像你無法要求一台偵測紅外線的無人機,明天立刻改去偵測核輻射。高昂的成本與漫長的開發時間,讓新產線難以靈活創新。

為了讓免疫藥物能走向多功能與容易快速製造、測試的道路,科學家急需一個更工業化的藥物設計方式。雖然我們追求的是工業化的設計,巧合的是,真正的突破靈感,仍然來自大自然。

在自然界中,基因有時會彼此「融合」成全新的組合,讓生物獲得額外功能。例如細菌,它們常仰賴一連串的酶來完成代謝,中間產物要在細胞裡來回傳遞。但後來,其中幾個酶的基因彼此融合,而且不只是基因層級的合併,產出的酶本身也變成同一條長長的蛋白質。

-----廣告,請繼續往下閱讀-----

結果,反應效率大幅提升。因為中間產物不必再「跑出去找下一個酶」,而是直接在同一條生產線上完成。對細菌來說,能更快處理養分、用更少能量維持生存,自然形成適應上的優勢,這樣的融合基因也就被演化保留下來。

科學家從中得到關鍵啟發:如果我們也能把兩種有用的蛋白質,「人工融合」在一起,是否就能創造出更強大的新分子?於是,融合蛋白(fusion protein)就出現了。

以假亂真:融合蛋白的HIV反制戰

融合蛋白的概念其實很直覺:把兩種以上、功能不同的蛋白質,用基因工程的方式「接起來」,讓它們成為同一個分子。 

1990 年,融合蛋白 CD4 免疫黏附素(CD4 immunoadhesin)誕生。這項設計,是為了對付令人類聞風喪膽的 HIV 病毒。

-----廣告,請繼續往下閱讀-----

我們知道 T 細胞是人體中一種非常重要的白血球。在這些 T 細胞中,大約有六到七成表面帶有一個叫做「CD4」的輔助受體。CD4 會和另一個受體 TCR 一起合作,幫助 T 細胞辨識其他細胞表面的抗原片段,等於是 T 細胞用來辨認壞人的「探測器」。表面擁有 CD4 受體的淋巴球,就稱為 CD4 淋巴球。

麻煩的來了。 HIV 病毒反將一軍,竟然把 T 細胞的 CD4 探測器,當成了自己辨識獵物的「標記」。沒錯,對 HIV 病毒來說,免疫細胞就是它的獵物。HIV 的表面有一種叫做 gp120 的蛋白,會主動去抓住 T 細胞上的 CD4 受體。

一旦成功結合,就會啟動一連串反應,讓病毒外殼與細胞膜融合。HIV 進入細胞內後會不斷複製並破壞免疫細胞,導致免疫系統逐漸崩潰。

為了逆轉這場悲劇,融合蛋白 CD4 免疫黏附素登場了。它的結構跟抗體類似,由由兩個不同段落所組成:一端是 CD4 假受體,另一端則是剛才提到、抗體上常見的 Fc 區域。當 CD4 免疫黏附素進入體內,它表面的 CD4 假受體會主動和 HIV 的 gp120 結合。

-----廣告,請繼續往下閱讀-----

厲害了吧。 病毒以為自己抓到了目標細胞,其實只是被騙去抓了一個假的 CD4。這樣 gp120 抓不到 CD4 淋巴球上的真 CD4,自然就無法傷害身體。

而另一端的 Fc 區域則有兩個重要作用:一是延長融合蛋白在體內的存活時間;二是理論上能掛上「這裡有敵人!」的標籤,這種機制稱為抗體依賴性細胞毒殺(ADCC)或免疫吞噬作用(ADCP)。當免疫細胞的 Fc 受體與 Fc 區域結合,就能促使免疫細胞清除被黏住的病毒顆粒。

不過,這裡有個關鍵細節。

在實際設計中,CD4免疫黏附素的 Fc 片段通常會關閉「吸引免疫細胞」的這個技能。原因是:HIV 專門攻擊的就是免疫細胞本身,許多病毒甚至已經藏在 CD4 細胞裡。若 Fc 區域過於活躍,反而可能引發強烈的發炎反應,甚至讓免疫系統錯把帶有病毒碎片的健康細胞也一併攻擊,這樣副作用太大。因此,CD4 免疫黏附素的 Fc 區域會加入特定突變,讓它只保留延長藥物壽命的功能,而不會與淋巴球的 Fc 受體結合,以避免誘發免疫反應。

從 DNA 藍圖到生物積木:融合蛋白的設計巧思

融合蛋白雖然潛力強大,但要製造出來可一點都不簡單。它並不是用膠水把兩段蛋白質黏在一起就好。「融合」這件事,得從最根本的設計圖,也就是 DNA 序列就開始規劃。

我們體內的大部分蛋白質,都是細胞照著 DNA 上的指令一步步合成的。所以,如果科學家想把蛋白 A 和蛋白 B 接在一起,就得先把這兩段基因找出來,然後再「拼」成一段新的 DNA。

不過,如果你只是單純把兩段基因硬接起來,那失敗就是必然的。因為兩個蛋白會互相「打架」,導致摺疊錯亂、功能全毀。

這時就需要一個小幫手:連接子(linker)。它的作用就像中間的彈性膠帶,讓兩邊的蛋白質能自由轉動、互不干擾。最常見的設計,是用多個甘胺酸(G)和絲胺酸(S)組成的柔性小蛋白鏈。

設計好這段 DNA 之後,就能把它放進細胞裡,讓細胞幫忙「代工」製造出這個融合蛋白。接著,科學家會用層析、電泳等方法把它純化出來,再一一檢查它有沒有摺疊正確、功能是否完整。

如果一切順利,這個人工設計的融合分子,就能像自然界的蛋白一樣穩定運作,一個全新的「人造分子兵器」就此誕生。

CD4免疫黏附素問世之後,融合蛋白逐漸成為生物製藥的重要平台之一。而且現在的融合蛋白,早就不只是「假受體+Fc 區域」這麼單純。它已經跳脫模仿抗體,成為真正能自由組裝、自由設計的生物積木。

CD4免疫黏附素問世之後,融合蛋白逐漸成為生物製藥的重要平台之一 / 圖片來源:wikipedia

融合蛋白的強項,就在於它能「自由組裝」。

以抗體為骨架,科學家可以接上任何想要的功能模組,創造出全新的藥物型態。一般的抗體只能「抓」(標記特定靶點);但融合蛋白不只會抓,還能「阻斷」、「傳遞」、甚至「調控」訊號。在功能模組的加持下,它在藥物設計上,幾乎像是一個分子級的鋼鐵蜘蛛人裝甲。

一般來說,當我們選擇使用融合蛋白時,通常會期待它能發揮幾種關鍵效果:

  1. 療效協同: 一款藥上面就能同時針對多個靶點作用,有機會提升治療反應率與持續時間,達到「一藥多效」的臨床價值。
  2. 減少用藥: 原本需要兩到三種單株抗體聯合使用的療法,也許只要一種融合蛋白就能搞定。這不僅能減少給藥次數,對病人來說,也有機會因為用藥減少而降低治療成本。
  3. 降低毒性風險: 經過良好設計的融合蛋白,可以做到更精準的「局部活化」,讓藥物只在目標區域發揮作用,減少副作用。

到目前為止,我們了解了融合蛋白是如何製造的,也知道它的潛力有多大。

那麼,目前實際成效到底如何呢?

一箭雙鵰:拆解癌細胞的「偽裝」與「內奸」

2016 年,德國默克(Merck KGaA)展開了一項全新的臨床試驗。 主角是一款突破性的雙功能融合蛋白──Bintrafusp Alfa。這款藥物的厲害之處在於,它能同時封鎖 PD-L1 和 TGF-β 兩條免疫抑制路徑。等於一邊拆掉癌細胞的偽裝,一邊解除它的防護罩。

PD-L1,我們或許不陌生,它就像是癌細胞身上的「偽裝良民證」。當 PD-L1 和免疫細胞上的 PD-1 受體結合時,就會讓免疫系統誤以為「這細胞是自己人」,於是放過它。我們的策略,就是用一個抗體或抗體樣蛋白黏上去,把這張「偽裝良民證」封住,讓免疫系統能重新啟動。

但光拆掉偽裝還不夠,因為癌細胞還有另一位強大的盟友—一個起初是我軍,後來卻被癌細胞收買、滲透的「內奸」。它就是,轉化生長因子-β,縮寫 TGF-β。

先說清楚,TGF-β 原本是體內的秩序管理者,掌管著細胞的生長、分化、凋亡,還負責調節免疫反應。在正常細胞或癌症早期,它會和細胞表面的 TGFBR2 受體結合,啟動一連串訊號,抑制細胞分裂、減緩腫瘤生長。

但當癌症發展到後期,TGF-β 跟 TGFBR2 受體之間的合作開始出問題。癌細胞表面的 TGFBR2 受體可能突變或消失,導致 TGF-β 不但失去了原本的抑制作用,反而轉向幫癌細胞做事

它會讓細胞骨架(actin cytoskeleton)重新排列,讓細胞變長、變軟、更有彈性,還能長出像觸手的「偽足」(lamellipodia、filopodia),一步步往外移動、鑽進組織,甚至進入血管、展開全身轉移。

更糟的是,這時「黑化」的 TGF-β 還會壓抑免疫系統,讓 T 細胞和自然殺手細胞變得不再有攻擊力,同時刺激新血管生成,幫腫瘤打通營養補給線。

為了對抗這個內奸,默克在 Bintrafusp Alfa 的結構裡,加上了一個「TGF-β 陷阱(trap)」。就像 1989 年的 CD4 免疫黏附素用「假受體」去騙 HIV 一樣,這個融合蛋白在體內循環時,會用它身上的「陷阱」去捕捉並中和游離的 TGF-β。這讓 TGF-β 無法再跟腫瘤細胞或免疫細胞表面的天然受體結合,從而鬆開了那副壓抑免疫系統的腳鐐。

為了對抗這個內奸,默克在 Bintrafusp Alfa 的結構裡,加上了一個「TGF-β 陷阱(trap)」/ 情境圖來源:shutterstock

告別單一解方:融合蛋白的「全方位圍剿」戰

但,故事還沒完。我們之前提過,癌細胞之所以難纏,在於它會發展出各種「免疫逃脫」策略。

而近年我們發現,癌細胞的「偽良民證」至少就有兩張:一張是 PD-L1;另一張是 CD-47。CD47 是癌細胞向巨噬細胞展示的「別吃我」訊號,當它與免疫細胞上的 SIRPα 結合時,就會抑制吞噬反應。

為此,總部位於台北的漢康生技,決定打造能同時對付 PD-L1、CD-47,乃至 TGF-β 的三功能生物藥 HCB301。

雖然三功能融合蛋白聽起來只是「再接一段蛋白」而已,但實際上極不簡單。截至目前,全球都還沒有任何三功能抗體或融合蛋白批准上市,在臨床階段的生物候選藥,也只佔了整個生物藥市場的 1.6%。

漢康生技透過自己開發的 FBDB 平台技術,製作出了三功能的生物藥 HCB301,目前第一期臨床試驗已經在美國、中國批准執行。

免疫療法絕對是幫我們突破癌症的關鍵。但我們也知道癌症非常頑強,還有好幾道關卡我們無法攻克。既然單株抗體在戰場上顯得單薄,我們就透過融合蛋白,創造出擁有多種功能模組的「升級版無人機」。

融合蛋白強的不是個別的偵查或阻敵能力,而是一組可以「客製化組裝」的平台,用以應付癌細胞所有的逃脫策略。

Catch Me If You Can?融合蛋白的回答是:「We Can.」

未來癌症的治療戰場,也將從尋找「唯一解」,轉變成如何「全方位圍剿」癌細胞,避免任何的逃脫。

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

1
0

文字

分享

0
1
0
解密機器人如何學會思考、觸摸與變形
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/09 ・6820字 ・閱讀時間約 14 分鐘

本文與 Perplexity 合作,泛科學企劃執行

「Hello. I am… a robot.」

在我們的記憶裡,機器人的聲音就該是冰冷、單調,不帶一絲情感 。它們的動作僵硬,肢體不協調,像一個沒有靈魂的傀儡,甚至啟發我們創造了機械舞來模仿那獨特的笨拙可愛。但是,現今的機器人發展不再只會跳舞或模仿人聲,而是已經能獨立完成一場膽囊切除手術。

就在2025年,美國一間實驗室發表了一項成果:一台名為「SRT-H」的機器人(階層式手術機器人Transformer),在沒有人類醫師介入的情況下,成功自主完成了一場完整的豬膽囊切除手術。SRT-H 正是靠著從錯誤中學習的能力,最終在八個不同的離體膽囊上,達成了 100% 的自主手術成功率。

-----廣告,請繼續往下閱讀-----

這項成就的意義重大,因為過去機器人手術的自動化,大多集中在像是縫合這樣的單一「任務」上。然而,這一場完整的手術,是一個包含數十個步驟、需要連貫策略與動態調整的複雜「程序」。這是機器人首次在包含 17 個步驟的完整膽囊切除術中,實現了「步驟層次的自主性」。

這就引出了一個讓我們既興奮又不安的核心問題:我們究竟錯過了什麼?機器人是如何在我們看不見的角落,悄悄完成了從「機械傀儡」到「外科醫生」的驚人演化?

這趟思想探險,將為你解密 SRT-H 以及其他五款同樣具備革命性突破的機器人。你將看到,它們正以前所未有的方式,發展出生物般的觸覺、理解複雜指令、學會團隊合作,甚至開始自我修復與演化,成為一種真正的「準生命體」 。

所以,你準備好迎接這個機器人的新紀元了嗎?

-----廣告,請繼續往下閱讀-----

只靠模仿還不夠?手術機器人還需要學會「犯錯」與「糾正」

那麼,SRT-H 這位機器人的外科大腦,究竟藏著什麼秘密?答案就在它創新的「階層式框架」設計裡 。

你可以想像,SRT-H 的腦中,住著一個分工明確的兩人團隊,就像是漫畫界的傳奇師徒—黑傑克與皮諾可 。

  • 第一位,是動口不動手的總指揮「黑傑克」: 它不下達具體的動作指令,而是在更高維度的「語言空間」中進行策略規劃 。它發出的命令,是像「抓住膽管」或「放置止血夾」這樣的高層次任務指令 。
  • 第二位,是靈巧的助手「皮諾可」: 它負責接收黑傑克的語言指令,並將這些抽象的命令,轉化為機器手臂毫釐不差的精準運動軌跡 。

但最厲害的還不是這個分工,而是它們的學習方式。SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。但這還只是開始,研究人員在訓練過程中,會刻意讓它犯錯,並向它示範如何從抓取失敗、角度不佳等糟糕的狀態中恢復過來 。這種獨特的訓練方法,被稱為「糾正性示範」 。

SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。 / 圖片來源:shutterstock

這項訓練,讓 SRT-H 學會了一項外科手術中最關鍵的技能:當它發現執行搞砸了,它能即時識別偏差,並發出如「重試抓取」或「向左調整」等「糾正性指令」 。這套內建的錯誤恢復機制至關重要。當研究人員拿掉這個糾正能力後,機器人在遇到困難時,要不是完全失敗,就是陷入無效的重複行為中 。

-----廣告,請繼續往下閱讀-----

正是靠著這種從錯誤中學習、自我修正的能力,SRT-H 最終在八次不同的手術中,達成了 100% 的自主手術成功率 。

SRT-H 證明了機器人開始學會「思考」與「糾錯」。但一個聰明的大腦,足以應付更混亂、更無法預測的真實世界嗎?例如在亞馬遜的倉庫裡,機器人不只需要思考,更需要實際「會做事」。

要能精準地與環境互動,光靠視覺或聽覺是不夠的。為了讓機器人能直接接觸並處理日常生活中各式各樣的物體,它就必須擁有生物般的「觸覺」能力。

解密 Vulcan 如何學會「觸摸」

讓我們把場景切換到亞馬遜的物流中心。過去,這裡的倉儲機器人(如 Kiva 系統)就像放大版的掃地機器人,核心行動邏輯是極力「避免」與周遭環境發生任何物理接觸,只負責搬運整個貨架,再由人類員工挑出包裹。

-----廣告,請繼續往下閱讀-----

但 2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan。在亞馬遜的物流中心裡,商品被存放在由彈性帶固定的織物儲物格中,而 Vulcan 的任務是必須主動接觸、甚至「撥開」彈性織網,再從堆放雜亂的儲物格中,精準取出單一包裹,且不能造成任何損壞。

2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan / 圖片引用:https://www.aboutamazon.com/news

Vulcan 的核心突破,就在於它在「拿取」這個動作上,學會了生物般的「觸覺」。它靈活的機械手臂末端工具(EOAT, End-Of-Arm Tool),不僅配備了攝影機,還搭載了能測量六個自由度的力與力矩感測器。六個自由度包含上下、左右、前後的推力,和三個維度的旋轉力矩。這就像你的手指,裡頭分布著非常多的受器,不只能感測壓力、還能感受物體橫向拉扯、運動等感觸。

EOAT 也擁有相同精確的「觸覺」,能夠在用力過大之前即時調整力道。這讓 Vulcan 能感知推動一個枕頭和一個硬紙盒所需的力量不同,從而動態調整行為,避免損壞貨物。

其實,這更接近我們人類與世界互動的真實方式。當你想拿起桌上的一枚硬幣時,你的大腦並不會先計算出精準的空間座標。實際上,你會先把手伸到大概的位置,讓指尖輕觸桌面,再沿著桌面滑動,直到「感覺」到硬幣的邊緣,最後才根據觸覺決定何時彎曲手指、要用多大的力量抓起這枚硬幣。Vulcan 正是在學習這種「視覺+觸覺」的混合策略,先用攝影機判斷大致的空間,再用觸覺回饋完成最後精細的操作。

-----廣告,請繼續往下閱讀-----

靠著這項能力,Vulcan 已經能處理亞馬遜倉庫中約 75% 的品項,並被優先部署來處理最高和最低層的貨架——這些位置是最容易導致人類員工職業傷害的位置。這也讓自動化的意義,從單純的「替代人力」,轉向了更具建設性的「增強人力」。

SRT-H 在手術室中展現了「專家級的腦」,Vulcan 在倉庫中演化出「專家級的手」。但你發現了嗎?它們都還是「專家」,一個只會開刀,一個只會揀貨。雖然這種「專家型」設計能有效規模化、解決痛點並降低成本,但機器人的終極目標,是像人類一樣成為「通才」,讓單一機器人,能在人類環境中執行多種不同任務。

如何教一台機器人「舉一反三」?

你問,機器人能成為像我們一樣的「通才」嗎?過去不行,但現在,這個目標可能很快就會實現了。這正是 NVIDIA 的 GR00T 和 Google DeepMind 的 RT-X 等專案的核心目標。

過去,我們教機器人只會一個指令、一個動作。但現在,科學家們換了一種全新的教學思路:停止教機器人完整的「任務」,而是開始教它們基礎的「技能基元」(skill primitives),這就像是動作的模組。

-----廣告,請繼續往下閱讀-----

例如,有負責走路的「移動」(Locomotion) 基元,和負責抓取的「操作」(Manipulation) 基元。AI 模型會透過強化學習 (Reinforcement Learning) 等方法,學習如何組合這些「技能基元」來達成新目標。

舉個例子,當 AI 接收到「從冰箱拿一罐汽水給我」這個新任務時,它會自動將其拆解為一系列已知技能的組合:首先「移動」到冰箱前、接著「操作」抓住把手、拉開門、掃描罐子、抓住罐子、取出罐子。AI T 正在學會如何將這些單一的技能「融合」在一起。有了這樣的基礎後,就可以開始來大量訓練。

當多重宇宙的機器人合體練功:通用 AI 的誕生

好,既然要學,那就要練習。但這些機器人要去哪裡獲得足夠的練習機會?總不能直接去你家廚房實習吧。答案是:它們在數位世界裡練習

NVIDIA 的 Isaac Sim 等平台,能創造出照片級真實感、物理上精確的模擬環境,讓 AI 可以在一天之內,進行相當於數千小時的練習,獨自刷副本升級。這種從「模擬到現實」(sim-to-real)的訓練管線,正是讓訓練這些複雜的通用模型變得可行的關鍵。

-----廣告,請繼續往下閱讀-----

DeepMind 的 RT-X 計畫還發現了一個驚人的現象:用來自多種「不同類型」機器人的數據,去訓練一個單一的 AI 模型,會讓這個模型在「所有」機器人上表現得更好。這被稱為「正向轉移」(positive transfer)。當 RT-1-X 模型用混合數據訓練後,它在任何單一機器人上的成功率,比只用該機器人自身數據訓練的模型平均提高了 50%。

這就像是多重宇宙的自己各自練功後,經驗值合併,讓本體瞬間變強了。這意味著 AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。

AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。/ 圖片來源:shutterstock

不再是工程師,而是「父母」: AI 的新學習模式

這也導向了一個科幻的未來:或許未來可能存在一個中央「機器人大腦」,它可以下載到各種不同的身體裡,並即時適應新硬體。

這種學習方式,也從根本上改變了我們與機器人的互動模式。我們不再是逐行編寫程式碼的工程師,而是更像透過「示範」與「糾正」來教導孩子的父母。

NVIDIA 的 GR00T 模型,正是透過一個「數據金字塔」來進行訓練的:

  • 金字塔底層: 是大量的人類影片。
  • 金字塔中層: 是海量的模擬數據(即我們提過的「數位世界」練習)。
  • 金字塔頂層: 才是最珍貴、真實的機器人操作數據。

這種模式,大大降低了「教導」機器人新技能的門檻,讓機器人技術變得更容易規模化與客製化。

當機器人不再是「一個」物體,而是「任何」物體?

我們一路看到了機器人如何學會思考、觸摸,甚至舉一反三。但這一切,都建立在一個前提上:它們的物理形態是固定的。

但,如果連這個前提都可以被打破呢?這代表機器人的定義不再是固定的形態,而是可變的功能:它能改變身體來適應任何挑戰,不再是一台單一的機器,而是一個能根據任務隨選變化的物理有機體。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院特別具有代表性,該學院的仿生機器人實驗室(Bioinspired Robotics Group, BIRG)2007 年就打造模組化自重構機器人 Roombots。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院(EPFL)特別具有代表性。該學院的仿生機器人實驗室(BIRG)在 2007 年就已打造出模組化自重構機器人 Roombots。而 2023 年,來自 EPFL 的另一個實驗室——可重組機器人工程實驗室(RRL),更進一步推出了 Mori3,這是一套把摺紙藝術和電腦圖學巧妙融合的模組化機器人系統。

2023 年來自 EPFL 的另一個實驗室—可重組機器人工程實驗室(RRL)推出了 Mori3 © 2023 Christoph Belke, EPFL RRL

Mori3 的核心,是一個個小小的三角形模組。別看它簡單,每個模組都是一個獨立的機器人,有自己的電源、馬達、感測器和處理器,能獨立行動,也能和其他模組合作。最厲害的是,它的三條邊可以自由伸縮,讓這個小模組本身就具備「變形」能力。

當許多 Mori3 模組連接在一起時,就能像一群活的拼圖一樣,從平面展開,組合成各種三維結構。研究團隊將這種設計稱為「物理多邊形網格化」。在電腦圖學裡,我們熟悉的 3D 模型,其實就是由許多多邊形(通常是三角形)拼湊成的網格。Mori3 的創新之處,就是把這種純粹的數位抽象,真正搬到了現實世界,讓模組們化身成能活動的「實體網格」。

這代表什麼?團隊已經展示了三種能力:

  • 移動:他們用十個模組能組合成一個四足結構,它能從平坦的二維狀態站立起來,並開始行走。這不只是結構變形,而是真正的協調運動。
  • 操縱: 五個模組組合成一條機械臂,撿起物體,甚至透過末端模組的伸縮來擴大工作範圍。
  • 互動: 模組們能形成一個可隨時變形的三維曲面,即時追蹤使用者的手勢,把手的動作轉換成實體表面的起伏,等於做出了一個會「活」的觸控介面。

這些展示,不只是實驗室裡的炫技,而是真實證明了「物理多邊形網格化」的潛力:它不僅能構建靜態的結構,還能創造具備複雜動作的動態系統。而且,同一批模組就能在不同情境下切換角色。

想像一個地震後的救援場景:救援隊帶來的不是一台笨重的挖土機,而是一群這樣的模組。它們首先組合成一條長長的「蛇」形機器人,鑽入瓦礫縫隙;一旦進入開闊地後,再重組成一隻多足的「蜘蛛」,以便在不平的地面上穩定行走;發現受困者時,一部分模組分離出來形成「支架」撐住搖搖欲墜的橫樑,另一部分則組合成「夾爪」遞送飲水。這就是以任務為導向的自我演化。

這項技術的終極願景,正是科幻中的概念:可程式化物質(Programmable Matter),或稱「黏土電子學」(Claytronics)。想像一桶「東西」,你可以命令它變成任何你需要的工具:一支扳手、一張椅子,或是一座臨時的橋樑。

未來,我們只需設計一個通用的、可重構的「系統」,它就能即時創造出任務所需的特定機器人。這將複雜性從實體硬體轉移到了規劃重構的軟體上,是一個從硬體定義的世界,走向軟體定義的物理世界的轉變。

更重要的是,因為模組可以隨意分開與聚集,損壞時也只要替換掉部分零件就好。足以展現出未來機器人的適應性、自我修復與集體行為。當一群模組協作時,它就像一個超個體,如同蟻群築橋。至此,「機器」與「有機體」的定義,也將開始動搖。

從「實體探索」到「數位代理」

我們一路見證了機器人如何從單一的傀儡,演化為學會思考的外科醫生 (SRT-H)、學會觸摸的倉儲專家 (Vulcan)、學會舉一反三的通才 (GR00T),甚至是能自我重構成任何形態的「可程式化物質」(Mori3)。

但隨著機器人技術的飛速發展,一個全新的挑戰也隨之而來:在一個 AI 也能生成影像的時代,我們如何分辨「真實的突破」與「虛假的奇觀」?

舉一個近期的案例:2025 年 2 月,一則影片在網路上流傳,顯示一台人形機器人與兩名人類選手進行羽毛球比賽,並且輕鬆擊敗了人類。我的第一反應是懷疑:這太誇張了,一定是 AI 合成的影片吧?但,該怎麼驗證呢?答案是:用魔法打敗魔法。

在眾多 AI 工具中,Perplexity 特別擅長資料驗證。例如這則羽球影片的內容貼給 Perplexity,它馬上就告訴我:該影片已被查證為數位合成或剪輯。但它並未就此打住,而是進一步提供了「真正」在羽球場上有所突破的機器人—來自瑞士 ETH Zurich 團隊的 ANYmal-D

接著,選擇「研究模式」,就能深入了解 ANYmal-D 的詳細原理。原來,真正的羽球機器人根本不是「人形」,而是一台具備三自由度關節的「四足」機器人。

如果你想更深入了解,Perplexity 的「實驗室」功能,還能直接生成一份包含圖表、照片與引用來源的完整圖文報告。它不只介紹了 ANYmal-D 在羽球上的應用,更詳細介紹了瑞士聯邦理工學院發展四足機器人的完整歷史:為何選擇四足?如何精進硬體與感測器結構?以及除了運動領域外,四足機器人如何在關鍵的工業領域中真正創造價值。

AI 代理人:數位世界的新物種

從開刀、揀貨、打球,到虛擬練功,這些都是機器人正在學習「幫我們做」的事。但接下來,機器人將獲得更強的「探索」能力,幫我們做那些我們自己做不到的事。

這就像是,傳統網路瀏覽器與 Perplexity 的 Comet 瀏覽器之間的差別。Comet 瀏覽器擁有自主探索跟決策能力,它就像是數位世界裡的機器人,能成為我們的「代理人」(Agent)

它的核心功能,就是拆解過去需要我們手動完成的多步驟工作流,提供「專業代工」,並直接交付成果。

例如,你可以直接對它說:「閱讀這封會議郵件,檢查我的行事曆跟代辦事項,然後草擬一封回信。」或是直接下達一個複雜的指令:「幫我訂 Blue Origin 的太空旅遊座位,記得要來回票。」

接著,你只要兩手一攤,Perplexity 就會接管你的瀏覽器,分析需求、執行步驟、最後給你結果。你再也不用自己一步步手動搜尋,或是在不同網站上重複操作。

AI 代理人正在幫我們探索險惡的數位網路,而實體機器人,則在幫我們前往真實的物理絕境。

立即點擊專屬連結 https://perplexity.sng.link/A6awk/k74… 試用 Perplexity吧! 現在申辦台灣大哥大月付 599(以上) 方案,還可以獲得 1 年免費 Perplexity Pro plan 喔!(價值 新台幣6,750)

◆Perplexity 使用實驗室功能對 ANYmal-D 與團隊的全面分析 https://drive.google.com/file/d/1NM97…

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

1

2
2

文字

分享

1
2
2
讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員
研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

-----廣告,請繼續往下閱讀-----
所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3808 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook