Loading [MathJax]/extensions/tex2jax.js

0

1
0

文字

分享

0
1
0

孟子大大曾說「人性本善」,但人類真的有道德本能嗎?──《道德可以建立嗎?》

PanSci_96
・2017/06/22 ・6059字 ・閱讀時間約 12 分鐘 ・SR值 543 ・八年級

-----廣告,請繼續往下閱讀-----

  • 【科科愛看書】小時候老師常常要我們成為一位有德之人,可是可是……《道德可以建立嗎?》如果道德可以建立的話,那我們又該怎麼做?總而言之,快快拋開那些讓人暈頭轉向的道德教科書,來面對有趣的難題,一起來燃燒大腦、喚醒你的哲學小宇宙吧!

我們怎麼會傾向於用好與壞、正當與不正當這樣的字眼,來評論別人的行為,而這些行為往往和我們沒有直接的關係?我們這個物種,假設是由本質上很自私、最關心自身物質幸福的個體所組成,那麼要怎樣解釋,我們所表現出的利他、好心或慷慨的行動並不屬於特例?

人類的道德,到底從哪裡來?

對於這些問題,有些傳統的回答指向社會學習中獎懲的力量,有些則指向「與生俱來的道德感」或「道德本能」的存在1

一、學來的道德

如果我們以道德用語評論他人,並且能在行動上合乎道德,完全是因為我們從很小的時候開始,就受到訓練要這麼做,而且是因為有些制度安排了一些方法,強迫我們一直這麼做2

二、與生俱來的道德

-----廣告,請繼續往下閱讀-----

如果我們以道德用語評論他人,並且能在行動上合乎道德,那是因為我們天生具有某些道德能力,它在我們出生後很快就會表現出來。我們可以說是經過設定,要用道德的字眼評論他人,並時常表現出利他或好心的行為,這麼做也許是由於這些行為對我們這個物種有種種好處3

上述第二個假設屬於「自然主義」(與「文化主義」形成對比),是目前引起最多討論的假設。

通過獎懲的社會制約理論,又稱「行為主義」。我必須指出,它在人文科學的所有領域中都有點被打入冷宮。針對這類理論的反擊,在語言學的領域最見成效。很多語言學家承認,在母語學習上有許多難以解釋的問題。確實,兒童沒有經過旁人有系統地教導,最後也能掌握母語的使用,有能力說出無數自己從來沒聽過的語句,也不會有文法上的錯誤。

對這個現象所能找到最好的解釋,似乎是說所有人類都天生具備了語言能力,能讓他們從接收到的少量資訊中,重新組建出整個語言。

-----廣告,請繼續往下閱讀-----

在道德的領域中,相同類型的假設看來也占有一席之地。

我們具有天生的語言能力,能夠說出從來沒有經過有系統地學習的語言;同樣地,我們也具有天生的道德能力,即使沒有經過旁人有系統地教導,也能知道什麼是好的或壞的、正當或不正當的4。就算是嬰兒,在看到他人受苦的場景時,也會表現出不舒服的反應,或是兒童,不論他們接受的是哪種教育,面對不公正的行為,也會有類似的反應。這些事實支持了這個假設5

就算是嬰兒,在看到他人受苦的場景時,也會表現出不舒服的反應。圖/giphy

這種所謂「道德感」〔譯注:或稱「道德情操」〕的理論(早在十八世紀便獲得蘇格蘭哲學家的支持),並沒有指出人類天生就很「善良」。該理論也完全接受,除了好心或「親社會」的傾向與生俱來之外,其他破壞性與「反社會」的傾向也是與生俱來6。它只明確表示人類不用經過學習,生性就傾向於以道德的眼光評論他人的行為,而且他們「親社會」或「合乎道德」的行為(利他、慷慨等等),不是什麼特殊的表現。這只能代表人類「天生有道德」。

有些學者認為所謂「人類心智模組」的理論,也許可以讓天然道德觀的想法,擁有穩固的科學基礎。

-----廣告,請繼續往下閱讀-----

然而佛德(Jerry Fodor)並不這麼想。他為了使模組的觀念有足夠明確的內容,付出很多心力7。在他看來,道德模組的觀念不過是個隱喻,很有吸引力,但沒有任何科學意義。

為什麼?

特殊化的心理機制,「模組」真有這麼神奇?

佛德表示,模組是高度特殊化的心理機制,組織起來用最有效率的方式處理某些特定的問題:辨識形狀、聲音、氣味、顏色、物體的質地或滋味,將聲流切割成單字與句子等等8

模組的運作如同反射作用:無意識、快速,獨立於我們的意識與意志之外。我們可以清楚識別它的生理基礎,當這個基礎被摧毀時,模組就停止運作(想一想視覺是怎麼回事)。它不會受到信念或知識的滲透。至少這是我們從某些知覺層面的錯覺之所以存在所得出的結論。即使我們知道兩條線的長度相等,但要是它們的末端各具有方向相反的箭頭,我們還是會看見某一條線比另一條長(稱為「慕勒——萊爾錯覺」〔Mller-Lyer illusion〕)。

慕勒——萊爾錯覺。圖/By FibonacciOwn work, CC BY-SA 3.0, wikimedia commons

對佛德來說,真正的、唯一能符合所有標準的模組部署(dispositif),是感官知覺的部署。大體而言,它涉及我們的五個感官與語言的自動解碼系統。

-----廣告,請繼續往下閱讀-----

思想不是、也不能形成模組,因為在思考的活動中,必須納入我們的信念,而不是把信念隔離在外。這個過程不見得很迅速,完全算不上是無意識,在大腦中也沒有清楚的負責部位。佛德認為這就是為什麼沒有嚴格意義上的認知模組。思考的活動是某種全面的智力活動,遍及所有的領域,並不是來自具有特定目標的笨模組,呆板地完成早就被設定好的任務9

總的來說,佛德絕不同意「模組巨集」的理論,尤其是斯波伯(Dan Sperber)支持的有關人類心靈的構想,後者接受人類有無限數量模組存在的理論,各種形式都有,並具有各種功能,感覺的、認知的、道德的或其他種類10

佛德還嘲笑所謂「騙徒偵測模組」11,同時明確排除了道德模組的存在可能。

我們的腦袋裡是否真有「騙徒偵測」的道德模組12

心理學家科斯米德絲(Leda Cosmides)與人類學家托比(John Tooby)從某些實驗研究得出結論,表示我們的心靈中自然配備了某個系統,它可以讓我們快速、自然而然、幾乎是無意識地,偵測出哪個人在人際合作中不值得信賴。這就是他們所說的「騙徒偵測模組」13

-----廣告,請繼續往下閱讀-----

他們的出發點是著名心理實驗「選卡片」,華生(Peter Wason)在 1966 年提出實驗14

這個實驗的目的其實不是很清楚,但大家已經習慣說它是要檢驗我們對「若 P 則 Q」這種條件推理的掌握能力,或是檢驗我們能否選出最佳假設的「波普爾」能力〔譯注:哲學家波普爾(Karl Popper)提出否證論(falsificationism),認為一切從經驗得來的假說、命題和理論必須邏輯上容許反例的存在才是科學的〕15

接受實驗的對象假定都很「聰明」(例如大學一、二年級的學生)。他們必須面對四張卡片,每張卡有一面是數字,另一面是字母,如下圖:

主持者會宣布:

-----廣告,請繼續往下閱讀-----

「你的面前有四張卡片,它們一面是數字,另一面是字母。若卡的一面是 D,則另一面是 3。你必須翻開哪幾張卡片才能驗證這個規則正不正確?」

愛好邏輯學的人士可以指出,只要知道條件連接詞「如果……則」的真值表就能得到正確答案。是的,這裡的任務在於考慮:「如果 D 則 3」對所有這些卡片來說是不是都正確?一般的運用方式是思考每一條推理是不是遵守條件連接詞「如果……則」的真值表。這個表顯示該條件句只有在一個情況下是假的:當前件為真,而後件為假(也就是說真值表上的 P 為真而 Q 為假)。

下面是條件連接詞「如果……則」(它的象徵符號為「→」)的真值表:

為了讓你對這個表的正確性有具體的想法,請看這個例子。我朋友說:「如果你經過賣菸的店,幫我買包菸。」我答應了。

-----廣告,請繼續往下閱讀-----

(1)如果我經過賣菸的店(P 為真),而且我買了菸(Q 為真),好得很。

(2)如果我沒經過賣菸的店(P 為假),而且我也沒買菸(Q 為假),沒問題。

(3)如果我沒經過賣菸的店(P 為假),但我還是買了菸(Q 為真),我朋友不會怪我!

(4)不過現在假設我經過賣菸的店(P 為真),而且我沒有買菸(Q 為假)。我朋友就會怪我說話不算話。「你經過賣菸的店,可是你沒有買菸。為什麼?」

事實上,那是四個情形中,唯一他能理直氣壯責備我的處境,讓我非得解釋一番不可。

讓我們回到選卡片的遊戲吧。

愛好邏輯學的人士應該會這麼想:「為了知道有沒有遵守『若 P 則 Q』的規定,只要檢查沒有任何狀況是 P 為真(有 D)而 Q 為假(沒有 3)就行了。所以不用翻開有 3 的卡片(Q 為真),不用翻開有 F 的卡片(P 為假)。只要翻開有 D 和有 7 的卡即可。如果 D 的背面不是 3,或 7 的背面是 D,那麼這些卡片就不能證實『如果 D 則 3』。」

看起來好簡單!

完全沒有想像中簡單!圖/giphy

可是實驗結果奇慘無比。失敗的比率很可觀16

接受實驗的對象,儘管在學校修過邏輯課程,但幾乎全都選了 D 卡,或是 D 卡與 3 卡,而應該選擇的卻是 D 和 7。大家可能會想,要是能表達得更具體,使用一般人比較熟悉的例子,結果應該會比較好。可是具體的表達方式也改變不了結果。當實驗敘述換成「去國家體育場」和「坐郊區快車」時,失敗的比率還是一樣高。

對於規範,我們好像比較敏感

然而,當任務的表達方式使用允許或禁止的字眼,結果有明顯的改善。例如:「我們想知道在這家咖啡店,大家有沒有遵守十八歲以下禁止喝啤酒的規定。」

當任務的表達方式使用允許或禁止的字眼,結果有明顯的改善。圖/By Clker-Free-Vector-Images@Pixabay

第一張卡是「二十五歲」,第二張「可口可樂」,第三張「十六歲」,第四張「啤酒」。

近百分之七十五的實驗對象選出了正確的卡片:「十六歲」(為了檢查背面是不是「啤酒」),以及「啤酒」(為了檢查背面是不是「十六歲」)17

另一方面,當我們用承諾或社會交換的字眼,結果也很好:「我那篇關於模組巨集的論文,如果你能給我一個好點子,我就請你吃大麥克。」18

總之,當任務以描述的字眼表達時,實驗對象的表現很差;要是以義務性的字眼表達,表現就很棒

怎麼解釋這種結果?科斯米德絲認為答案很明顯,是演化心理學掌握了關鍵:我們有偵測「騙徒」的模組,意思是指那些想要從人際合作中享受好處,又不奉獻一己心力的人(想一想大家去野餐都會避免邀請的那些人,他們來時兩手空空,還把三明治一掃而光)19。正因為我們有這樣的模組,所以選卡片的遊戲內容與義務有關時,我們才會表現得又好又迅速。該理論還說,今天我們之所以具有這個模組,是由於它對我們的祖先而言非常實用,他們需要迅速辨認誰是人際合作中不應該信賴的人。

這個解釋至少招來了兩點批評:

  1. 假定我們對義務性條件句的掌握能力,足以證明我們有叫做「騙徒偵測」的模組,那麼依此類推,我們對描述條件句的掌握能力,代表我們不具有古典邏輯的模組。這表示我們的心智運作並沒有完全模組化。或許會有佛德式的「中央」系統。這正是模組巨集之友想否認的一點。
  2. 根據佛德的說法,外圍系統要能迅速、自動地運作,唯一的條件是,它只對特定類別的刺激(stimuli)有感覺(例如語言的聲音,可以將聲流切割成句子的模組)。至於騙徒偵測模組,刺激它的是什麼?應該會涉及某種社會交換,但似乎必須具有篩選的濾網,從所有可以觀察到的人類行為中,篩選出具社會交換性質的行為。這樣的濾網是否也是模組?如果它不是模組,偵測騙徒的過程就不是完全的模組化,或者說不是從頭到尾整個過程都是模組化。然而這張濾網不能藉由定義來讓它模組化,因為它的任務是一般性的:從整體論的取向去篩選原始訊息,而不是產生這些訊息20。 玩遊戲和y8,放鬆,玩得開心。 玩馬里奧的 Y8 最受歡迎的網絡遊戲集合y8

圍繞模組所進行的爭論,是否只屬於用字上的爭辯?

據我所知,沒有任何心理學家給模組巨集做出嚴格的定義。捍衛它的權威人士認為,只要具備一定程度的功能特殊性就足以合理討論「模組」21。他們通常會建議削弱佛德對模組的辨認標準,因為他們認為這些標準過於嚴苛。

不過,如果成為模組不用滿足佛德所有的標準,如果具有某種程度的功能特殊性就足以合理稱為「模組」,那麼,當然,什麼事都可以看成是模組,那是佛德絕對不會接受的說法!

由於對模組並沒有共同認可的辨認標準,我看不出模組巨集的擁護者與反對者兩造之間的衝突要怎樣才能化解。基本上,模組問題引起的爭吵,不少是因為反對佛德的人士在面對這些模組的判定標準時,表現出擺盪不定的矛盾態度。有時他們承認佛德的標準有理,認為中央系統以這些標準來看,只有某些部分是模組化的。有時他們質疑這些標準,說中央系統是模組化的,但「模組化」的定義比較寬鬆。

道德本能難道並不存在?

有些學者希望藉由道德模組的存在,為道德感理論辯護,目的是重建這個理論;其中,海特屬於鬥志最高昂的學者之一22。他不同意給予模組嚴格的定義。他不認為任何心理運作都必須表現出佛德給出的所有模組標準,才能稱為模組。

不需要對模組提出嚴格要求的這一點,我個人並不反對,但我覺得,如果按照海特的構想,很難在道德反應的兩個部分之間做出精確的區別,一邊可以稱作「自發性」的部分,另一邊是學來的或經過思考的部分。確實,對於比較不嚴格的模組構想,我們完全可以構思出一些部署,它們不像感官部署那麼難以讓信念或知識滲入,但在功能上又足夠特殊化,可以被視為模組。

然而一個不怎麼嚴格的模組構想,是否還可以在我們的道德反應中,區別出什麼是來自道德直覺的反應,什麼是有條理的道德思考結果?如果道德模組的運作和感官模組不一樣,也就是說它不是自主發生,而且不是完全獨立於信念與理性之外,那麼在面對假定為道德反應時,我們要怎麼區別直覺的部分,以及來自學習與思考的部分?

而且,如果不可能區別道德判斷的這兩個面向,又怎麼證明我們的某些道德反應是自然的、與生俱來的和本能的?

注釋:

  1. Nurock, Sommes-nous naturellement moraux ?, op. cit.
  2. Jesse J. Prinz, « Is Morality Innate ? », dans Walter Sinnott-Armstrong, dir., Moral Psychology, vol. 1, The Evolution of Morality : Adaptations and Innateness, Cambridge, Mass., The MIT Press, 2008, p. 367-406.
  3. Bjorklund, « Social Intuitionists Answer Six Questions about Moral Psychology », op. cit.
  4. Jesse J. Prinz, « Resisting the Linguistic Analogy : A Commentary on Hauser, Young and Cushman », dans Walter Sinnott-Armstrong, dir., Moral Psychology, vol. 2, op. cit., p. 157-179.
  5. Nurock, Sommes-nous naturellement moraux ?, op. cit.
  6. Doris, Lack of Character. Personality and Moral Behavior, op. cit.
  7. Jerry Fodor, La modularité de l’esprit (1983), trad. Abel Gerschenfeld, Paris, Minuit, 1986.
  8. Ibid.
  9. Jay Garfield, « Modularity », dans Samuel Guttenplan, dir., A Companion to the Philosophy of Mind, Oxford, Basil Blackwell, 1994, p. 441-448.
  10. Dan Sperber, « Défense de la modularité massive », dans E. Dupoux, dir., Les langages du cerveau, Paris, Odile Jacob, 2002, p. 55-64.
  11. Jerry Fodor, « Pourquoi nous sommes si doués dans la détection des tricheurs », appendice à L’esprit, ça ne marche pas comme ça (2000), trad. Claudine Tiercelin, Paris, Odile Jacob, 2003.
  12. 以下分析出自我的論文:« Ils voient des modules partout », dans Le rasoir de Kant et autres essais de philosophie pratique, Paris – Tel-Aviv, Éditions de l’Éclat, 2003, p. 161-187。
  13. Leda Cosmides, dans « The Logic of Social Exchange », Cognition, 31, 1989, p. 187-276 ; Leda Cosmides et John Tooby, « Cognitive Adaptation for Social Exchange », dans J. Barkow, L. Cosmides et J. Tooby, dir., The Adapted Mind, Oxford, Oxford University Press, 1992, p. 163-228.
  14. George Botterill et Peter Carruthers, The Philosophy of Psychology, Cambridge, Cambridge University Press, 1999, p. 109-111.
  15. Ibid., p. 110.
  16. 根據平克(Steven Pinker)的說法,介於百分之九十至百分之九十五之間,Comment fonctionne l’esprit humain ? (1997), trad. Marie-France Desjeux, Paris, Odile Jacob, 2000, p. 358;根據波特里(George Botterill)和卡魯瑟斯(Peter Carruthers)的說法,介於百分之七十五至百分之九十之間,The Philosophy of Psychology, op. cit., p. 109。
  17. R. A. Griggs et J. R. Cox, « The Elusive Thematic-Materials Effect in Wason’s Selection Task », British Journal of Psychology, 73, 1982, p. 407-420.
  18. Cosmides, « The Logic of Social Exchange », op. cit.
  19. Ibid. ; Cosmides et Tooby, « Cognitive Adaptation for Social Exchange », op. cit.
  20. Fodor, « Pourquoi nous sommes si doués dans la détection des tricheurs », op. cit.
  21. Lawrence A. Hirschfeld, introduction à L. A. Hirschfeld et Susan A. Gelman, dir., Mapping the Mind : Domain Specificity in Culture and Cognition, Cambridge, Cambridge University Press, 1994.
  22. Haidt et Joseph, « The Moral Mind : How Five Sets of Innate Intuitions Guide the Development of Many Culture-specific Virtues and Perhaps Even Modules », op. cit.

 

 

 

本文摘自《道德可以建立嗎?:在麵包香裡學哲學,法國最受歡迎的 19 堂道德實驗哲學練習課》臉譜出版

 

 

 

 

-----廣告,請繼續往下閱讀-----
文章難易度
PanSci_96
1262 篇文章 ・ 2411 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

0
0

文字

分享

0
0
0
拆解邊緣AI熱潮:伺服器如何提供穩固的運算基石?
鳥苷三磷酸 (PanSci Promo)_96
・2025/05/21 ・5071字 ・閱讀時間約 10 分鐘

本文與 研華科技 合作,泛科學企劃執行。

每次 NVIDIA 執行長黃仁勳公開發言,總能牽動整個 AI 產業的神經。然而,我們不妨設想一個更深層的問題——如今的 AI 幾乎都倚賴網路連線,那如果哪天「網路斷了」,會發生什麼事?

想像你正在自駕車打個盹,系統突然警示:「網路連線中斷」,車輛開始偏離路線,而前方竟是萬丈深谷。又或者家庭機器人被駭,開始暴走跳舞,甚至舉起刀具向你走來。

這會是黃仁勳期待的未來嗎?當然不是!也因為如此,「邊緣 AI」成為業界關注重點。不靠雲端,AI 就能在現場即時反應,不只更安全、低延遲,還能讓數據當場變現,不再淪為沉沒成本。

什麼是邊緣 AI ?

邊緣 AI,乍聽之下,好像是「孤單站在角落的人工智慧」,但事實上,它正是我們身邊最可靠、最即時的親密數位夥伴呀。

當前,像是企業、醫院、學校內部的伺服器,個人電腦,甚至手機等裝置,都可以成為「邊緣節點」。當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。簡單來說,就是將原本集中在遠端資料中心的運算能力,「搬家」到更靠近數據源頭的地方。

-----廣告,請繼續往下閱讀-----

那麼,為什麼需要這樣做?資料放在雲端,集中管理不是更方便嗎?對,就是不好。

當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。/ 圖片來源:MotionArray

第一個不好是物理限制:「延遲」。
即使光速已經非常快,數據從你家旁邊的路口傳到幾千公里外的雲端機房,再把分析結果傳回來,中間還要經過各種網路節點轉來轉去…這樣一來一回,就算只是幾十毫秒的延遲,對於需要「即刻反應」的 AI 應用,比如說工廠裡要精密控制的機械手臂、或者自駕車要判斷路況時,每一毫秒都攸關安全與精度,這點延遲都是無法接受的!這是物理距離與網路架構先天上的限制,無法繞過去。

第二個挑戰,是資訊科學跟工程上的考量:「頻寬」與「成本」。
你可以想像網路頻寬就像水管的粗細。隨著高解析影像與感測器數據不斷來回傳送,湧入的資料數據量就像超級大的水流,一下子就把水管塞爆!要避免流量爆炸,你就要一直擴充水管,也就是擴增頻寬,然而這樣的基礎建設成本是很驚人的。如果能在邊緣就先處理,把重要資訊「濃縮」過後再傳回雲端,是不是就能減輕頻寬負擔,也能節省大量費用呢?

第三個挑戰:系統「可靠性」與「韌性」。
如果所有運算都仰賴遠端的雲端時,一旦網路不穩、甚至斷線,那怎麼辦?很多關鍵應用,像是公共安全監控或是重要設備的預警系統,可不能這樣「看天吃飯」啊!邊緣處理讓系統更獨立,就算暫時斷線,本地的 AI 還是能繼續運作與即時反應,這在工程上是非常重要的考量。

所以你看,邊緣運算不是科學家們沒事找事做,它是順應數據特性和實際應用需求,一個非常合理的科學與工程上的最佳化選擇,是我們想要抓住即時數據價值,非走不可的一條路!

邊緣 AI 的實戰魅力:從工廠到倉儲,再到你的工作桌

知道要把 AI 算力搬到邊緣了,接下來的問題就是─邊緣 AI 究竟強在哪裡呢?它強就強在能夠做到「深度感知(Deep Perception)」!

-----廣告,請繼續往下閱讀-----

所謂深度感知,並非僅僅是對數據進行簡單的加加減減,而是透過如深度神經網路這類複雜的 AI 模型,從原始數據裡面,去「理解」出更高層次、更具意義的資訊。

研華科技為例,旗下已有多項邊緣 AI 的實戰應用。以工業瑕疵檢測為例,利用物件偵測模型,快速將工業產品中的瑕疵挑出來,而且由於 AI 模型可以使用同一套參數去檢測,因此品管上能達到一致性,減少人為疏漏。尤其在高產能工廠中,檢測速度必須快、狠、準。研華這套 AI 系統每分鐘最高可處理 8,000 件產品,替工廠節省大量人力,同時確保品質穩定。這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。

這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。/ 圖片提供:研華科技

此外,在智慧倉儲場域,研華與威剛合作,研華與威剛聯手合作,在 MIC-732AO 伺服器上搭載輝達的 Nova Orin 開發平台,打造倉儲系統的 AMR(Autonomous Mobile Robot) 自走車。這跟過去在倉儲系統中使用的自動導引車 AGV 技術不一樣,AMR 不需要事先規劃好路線,靠著感測器偵測,就能輕鬆避開障礙物,識別路線,並且將貨物載到指定地點存放。

當然,還有語言模型的應用。例如結合檢索增強生成 ( RAG ) 跟上下文學習 ( in-context learning ),除了可以做備忘錄跟排程規劃以外,還能將實務上碰到的問題記錄下來,等到之後碰到類似的問題時,就能詢問 AI 並得到解答。

你或許會問,那為什麼不直接使用 ChatGPT 就好了?其實,對許多企業來說,內部資料往往具有高度機密性與商業價值,有些場域甚至連手機都禁止員工帶入,自然無法將資料上傳雲端。對於重視資安,又希望運用 AI 提升效率的企業與工廠而言,自行部署大型語言模型(self-hosted LLM)才是理想選擇。而這樣的應用,並不需要龐大的設備。研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。

但問題也接著浮現:要在這麼小的設備上跑大型 AI 模型,會不會太吃資源?這正是目前 AI 領域最前沿、最火熱的研究方向之一:如何幫 AI 模型進行「科學瘦身」,又不減智慧。接下來,我們就來看看科學家是怎麼幫 AI 減重的。

-----廣告,請繼續往下閱讀-----

語言模型瘦身術之一:量化(Quantization)—用更精簡的數位方式來表示知識

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。這其實跟圖片壓縮有點像:有些畫面細節我們肉眼根本看不出來,刪掉也不影響整體感覺,卻能大幅減少檔案大小。

模型量化的原理也是如此,只不過對象是模型裡面的參數。這些參數原先通常都是以「浮點數」表示,什麼是浮點數?其實就是你我都熟知的小數。舉例來說,圓周率是個無窮不循環小數,唸下去就會是3.141592653…但實際運算時,我們常常用 3.14 或甚至直接用 3,也能得到夠用的結果。降低模型參數中浮點數的精度就是這個意思! 

然而,量化並不是那麼容易的事情。而且實際上,降低精度多少還是會影響到模型表現的。因此在設計時,工程師會精密調整,確保效能在可接受範圍內,達成「瘦身不減智」的目標。

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。/ 圖片來源:MotionArray

模型剪枝(Model Pruning)—基於重要性的結構精簡

建立一個 AI 模型,其實就是在搭建一整套類神經網路系統,並訓練類神經元中彼此關聯的參數。然而,在這麼多參數中,總會有一些參數明明佔了一個位置,卻對整體模型沒有貢獻。既然如此,不如果斷將這些「冗餘」移除。

這就像種植作物的時候,總會雜草叢生,但這些雜草並不是我們想要的作物,這時候我們就會動手清理雜草。在語言模型中也會有這樣的雜草存在,而動手去清理這些不需要的連結參數或神經元的技術,就稱為 AI 模型的模型剪枝(Model Pruning)。

-----廣告,請繼續往下閱讀-----

模型剪枝的效果,大概能把100變成70這樣的程度,說多也不是太多。雖然這樣的縮減對於提升效率已具幫助,但若我們要的是一個更小幾個數量級的模型,僅靠剪枝仍不足以應對。最後還是需要從源頭著手,採取更治本的方法:一開始就打造一個很小的模型,並讓它去學習大模型的知識。這項技術被稱為「知識蒸餾」,是目前 AI 模型壓縮領域中最具潛力的方法之一。

知識蒸餾(Knowledge Distillation)—讓小模型學習大師的「精髓」

想像一下,一位經驗豐富、見多識廣的老師傅,就是那個龐大而強悍的 AI 模型。現在,他要培養一位年輕學徒—小型 AI 模型。與其只是告訴小型模型正確答案,老師傅 (大模型) 會更直接傳授他做判斷時的「思考過程」跟「眉角」,例如「為什麼我會這樣想?」、「其他選項的可能性有多少?」。這樣一來,小小的學徒模型,用它有限的「腦容量」,也能學到老師傅的「智慧精髓」,表現就能大幅提升!這是一種很高級的訓練技巧,跟遷移學習有關。

舉個例子,當大型語言模型在收到「晚餐:鳳梨」這組輸入時,它下一個會接的詞語跟機率分別為「炒飯:50%,蝦球:30%,披薩:15%,汁:5%」。在知識蒸餾的過程中,它可以把這套機率表一起教給小語言模型,讓小語言模型不必透過自己訓練,也能輕鬆得到這個推理過程。如今,許多高效的小型語言模型正是透過這項技術訓練而成,讓我們得以在資源有限的邊緣設備上,也能部署愈來愈強大的小模型 AI。

但是!即使模型經過了這些科學方法的優化,變得比較「苗條」了,要真正在邊緣環境中處理如潮水般湧現的資料,並且高速、即時、穩定地運作,仍然需要一個夠強的「引擎」來驅動它們。也就是說,要把這些經過科學千錘百鍊、但依然需要大量計算的 AI 模型,真正放到邊緣的現場去發揮作用,就需要一個強大的「硬體平台」來承載。

-----廣告,請繼續往下閱讀-----

邊緣 AI 的強心臟:SKY-602E3 的三大關鍵

像研華的 SKY-602E3 塔式 GPU 伺服器,就是扮演「邊緣 AI 引擎」的關鍵角色!那麼,它到底厲害在哪?

一、核心算力
它最多可安裝 4 張雙寬度 GPU 顯示卡。為什麼 GPU 這麼重要?因為 GPU 的設計,天生就擅長做「平行計算」,這正好就是 AI 模型裡面那種海量數學運算最需要的!

你想想看,那麼多數據要同時處理,就像要請一大堆人同時算數學一樣,GPU 就是那個最有效率的工具人!而且,有多張 GPU,代表可以同時跑更多不同的 AI 任務,或者處理更大流量的數據。這是確保那些科學研究成果,在邊緣能真正「跑起來」、「跑得快」、而且「能同時做更多事」的物理基礎!

二、工程適應性——塔式設計。
邊緣環境通常不是那種恆溫恆濕的標準機房,有時是在工廠角落、辦公室一隅、或某個研究實驗室。這種塔式的機箱設計,體積相對緊湊,散熱空間也比較好(這對高功耗的 GPU 很重要!),部署起來比傳統機架式伺服器更有彈性。這就是把高性能計算,進行「工程化」,讓它能適應台灣多樣化的邊緣應用場景。

三、可靠性
SKY-602E3 用的是伺服器等級的主機板、ECC 糾錯記憶體、還有備援電源供應器等等。這些聽起來很硬的規格,背後代表的是嚴謹的工程可靠性設計。畢竟在邊緣現場,系統穩定壓倒一切!你總不希望 AI 分析跑到一半就掛掉吧?這些設計確保了部署在現場的 AI 系統,能夠長時間、穩定地運作,把實驗室裡的科學成果,可靠地轉化成實際的應用價值。

-----廣告,請繼續往下閱讀-----
研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。/ 圖片提供:研華科技

台灣製造 × 在地智慧:打造專屬的邊緣 AI 解決方案

研華科技攜手八維智能,能幫助企業或機構提供客製化的AI解決方案。他們的技術能力涵蓋了自然語言處理、電腦視覺、預測性大數據分析、全端軟體開發與部署,及AI軟硬體整合。

無論是大小型語言模型的微調、工業瑕疵檢測的模型訓練、大數據分析,還是其他 AI 相關的服務,都能交給研華與八維智能來協助完成。他們甚至提供 GPU 與伺服器的租借服務,讓企業在啟動 AI 專案前,大幅降低前期投入門檻,靈活又實用。

台灣有著獨特的產業結構,從精密製造、城市交通管理,到因應高齡化社會的智慧醫療與公共安全,都是邊緣 AI 的理想應用場域。更重要的是,這些情境中許多關鍵資訊都具有高度的「時效性」。像是產線上的一處異常、道路上的突發狀況、醫療設備的即刻警示,這些都需要分秒必爭的即時回應。

如果我們還需要將數據送上雲端分析、再等待回傳結果,往往已經錯失最佳反應時機。這也是為什麼邊緣 AI,不只是一項技術創新,更是一條把尖端 AI 科學落地、真正發揮產業生產力與社會價值的關鍵路徑。讓數據在生成的那一刻、在事件發生的現場,就能被有效的「理解」與「利用」,是將數據垃圾變成數據黃金的賢者之石!

👉 更多研華Edge AI解決方案
👉 立即申請Server租借

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
225 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

1

2
2

文字

分享

1
2
2
讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員
研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

-----廣告,請繼續往下閱讀-----
所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3652 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

5
2

文字

分享

0
5
2
解釋善性:從雄性黑猩猩「阿莫斯」的臨終之時——《我們與動物的距離》
馬可孛羅_96
・2022/01/14 ・2251字 ・閱讀時間約 4 分鐘

阿莫斯(Amos)是我見過的公黑猩猩當中數一數二俊美的,唯一的例外也許是他把兩顆大蘋果同時塞進嘴裡的那一天,而他的那個舉動也再度讓我意識到,黑猩猩能做出許多我們做不到的事情。他有一雙大眼睛,嵌在一張和善而勻稱的臉龐裡,還有一身濃密閃亮的黑毛,手臂與雙腿也有清楚的肌肉線條。他從來不像有些公黑猩猩那樣攻擊性過強,但盛年期間仍有無比自信。阿莫斯備受喜愛,他死的時候我們有些人都不禁落淚,他的猿類同胞也在那幾天靜得令人發毛,連胃口都受到了影響。

我們當時不曉得他出了什麼問題,直到死後驗屍才知道除了大幅腫脹的肝臟占滿了腹部之外,還有不少癌化增生。他的體重在前一年掉了百分之十五,儘管病況必定是從幾年前就已經開始惡化,他卻一直表現得與正常無異,直到身體再也支撐不住為止。阿莫斯一定有好幾個月都生活在痛苦之中,但他只要稍微表現出衰弱的模樣,必定會導致其社會地位喪失。黑猩猩似乎懂得這一點。野地裡,一頭瘸了腿的黑猩猩被觀察到自行孤立獨處了幾個星期養傷,但在這段期間仍然偶爾會現身猩群當中,展現出健壯又充滿活力的模樣,然後再退出其他猩群成員的視線之外。這麼一來,就沒有成員會對他起疑。

黑猩猩只要稍微表現出衰弱的模樣,必定會導致其社會地位喪失。圖/Pexels

阿莫斯直到死前一天才表露他的病況,當時我們發現他的喘息速率達每分鐘六十口氣,臉上不停冒汗,其他黑猩猩都在外頭的陽光下,唯獨他坐在夜間圍欄裡的一口麻布袋上。阿莫斯拒絕出去戶外,於是我們把他隔離開來,等待獸醫撥空前來檢查。不過,其他黑猩猩一再回到室內探望他,我們只好把阿莫斯前方的門打開一道小縫,讓其他黑猩猩能接觸他。阿莫斯刻意坐在那道門縫旁,一頭名叫黛西的母黑猩猩於是輕柔地抱住他的頭,為他耳朵後方的柔軟部位理毛。接著,她把大量的木屑透過縫隙推進門內,這是黑猩猩喜歡用來築巢的材料。牠們會把木屑鋪在自己的身旁四周,然後睡在上面。黛西給了阿莫斯這些木屑之後,我們又看到一頭公黑猩猩也跟著這麼做。由於阿莫斯背靠著牆坐而沒有理會那些木屑,於是黛西數度從門縫伸手進來,把木屑塞在他的背部與牆壁之間。

這種情形實在引人注目。這豈不表示黛西意識到阿莫斯必定身體不適,所以靠在柔軟的東西上會比較舒服,就像我們在醫院也會幫病患背後墊個枕頭一樣嗎?黛西也許是從自己對木屑的感覺推斷出這一點,而且我們也確實認為她是個「木屑狂」(她通常不會分享木屑,只是自己大量囤積)。我相信猿類會採納他人的觀點,尤其是對遭遇困難的朋友。的確,這類能力在實驗室裡接受測試的時候,並不是每次都能獲得證實,但那些研究通常都是要求猩猩在某種人造情境裡理解人類。先前已經提過,我們的科學帶有人類中心偏見。在猿類對猿類的相同實驗操作下,黑猩猩的表現就好上許多,而在野地裡,牠們更是會關注其他同伴已知或未知的事物。因此,對於黛西似乎能夠理解阿莫斯的處境,我們不該覺得意外。

-----廣告,請繼續往下閱讀-----

第二天,阿莫斯就接受了安樂死。他已經沒有活命的希望,繼續拖下去只會讓他痛苦更久而已。這起事件闡明了靈長類動物社會生活的兩個對比面向。第一,靈長類生活在一個殘酷的世界裡,迫使雄性必須盡力隱藏生理上的障礙好擺出強悍的表象。但第二,靈長類也是緊密社群裡的一分子,可以指望獲得別人的喜愛與協助,包括非親屬在內。這種雙重性很難理解。廣受大眾喜愛的書寫者偏好簡化實際狀況,不是以霍布斯式的赤裸筆法把黑猩猩的生活描寫得凶惡殘暴,不然就是只強調牠們和善的一面。不過,實際上絕對不是像這樣二擇一,兩種狀況始終並存。如果有人提問,黑猩猩既然有時會互相殘殺,怎麼可能算是擁有同理心的動物?我總是這麼反問:按照同樣的標準,那麼我們是不是也該徹底揚棄人類擁有同理心的概念?

這種雙重性非常重要。我們如果全都溫和善良,道德就會是一種多餘的東西。如果人類總是互相同情,從來不會偷竊、不會在背後捅別人一刀、不會覬覦別人的妻子,那我們還有什麼好擔心的呢?顯然人類不是這樣的動物,這也就說明了道德法則的必要性。另一方面,我們可以設計無數的規則提倡對別人的尊重與關懷,倘若我們原本就沒有這樣的傾向,那麼這些規則也絕不會有任何用處。在那種情況下,這些規則就會像是撒在玻璃上的種子一樣,根本沒有生根發芽的機會。人類之所以得辨別是非,正是因為我們生來就同時具有行善與做惡的能力。

黛西協助阿莫斯的行為在生物學上算是「利他行為」的表現,其定義就是會導致某個個體付出代價(例如冒險或者耗費精力),但是去執行利於他人的行為。不過,生物學對利他行為的討論通常不涉及動機,只關注這類行為如何影響他人,以及為什麼會演化出這種行為。這項辯論雖然已有一百五十年以上的歷史,卻在過去幾十年才成為注目焦點。

——本文摘自《我們與動物的距離:在動物身上發現無私的人性》,2021 年 12 月,馬可孛羅

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
馬可孛羅_96
25 篇文章 ・ 19 位粉絲
馬可孛羅文化為台灣「城邦文化出版集團」的一個品牌,成立於1998年,經營的書系多元,包含旅行文學、探險經典、文史、社科、文學小說,以及本土華文作品,期望為全球中文讀者提供一個更開闊、可以縱橫古今、和全世界對話的新閱讀空間。