0

0
0

文字

分享

0
0
0

我們與《魔鬼終結者》的距離,AI 真的會成為人類的威脅嗎?

鳥苷三磷酸 (PanSci Promo)_96
・2019/11/01 ・3183字 ・閱讀時間約 6 分鐘 ・SR值 557 ・八年級

本文由 Fox Movies 委託,泛科學企劃執行

  • 文/火星軍情局

《魔鬼終結者》第一集問世至今已經 35 年,即使阿諾 T-800 的肌肉不復以往,革命之母莎拉康納也升等為革命祖母,卻還要在即將上映的《魔鬼終結者:黑暗宿命》裡繼續為人類的生存戰鬥,看來在魔鬼終結者宇宙裡的人工智慧「天網」是不會這麼容易被打敗的,續集還有得演下去了。

回到現實,魔鬼終結者的世界會成為我們的未來嗎?一起來看看電影裡有哪些威脅是人類真正該擔心的吧!

伴隨我們許久的《魔鬼終結者》,革命之母莎拉康納也升等為「革命祖母」,故事依然和人工智慧征戰(互相轟炸)不止。圖/《魔鬼終結者:黑暗宿命》劇照

可能威脅一:覺醒的AI會試圖消滅人類?「天網」可能出現嗎?

在《魔鬼終結者》裡,「天網」是美軍研發的超級電腦,可控制美軍的自動化武器系統,並透過人工智慧來制敵機先。想不到它啟動不久就自行發展出自我意識,領悟到人類才是它的真正威脅,而發動核戰消滅人類。在人工智慧開始蓬勃發展的現在,我們該開始擔心哪一天這世界會被像天網的人工智慧給毀滅嗎?

-----廣告,請繼續往下閱讀-----

目前的人工智慧是只能處理單一的問題「弱人工智慧」,說穿了就是讓電腦從大量數據中歸納出統計上的規律,與「人工意識」沒有關係。像是 2016 年非常火熱的 Alpha Go 就屬於此類:它雖然能夠擊敗世界第一的圍棋高手,但離開了棋盤它就什麼也不是。這類的弱人工智慧還包括我們生活中時常可以看見的某些資訊應用,包括 Youtube 網站上的推薦影片、Google Map 的路線規劃。但可想而見,這些只能提供特定服務的程式,與我們期待會與人們互動討論的「智慧」還差得很遠。

雖然現在有的機器在與人互動時能展現出個性和意識,但那並不是真的意識,像是會和使用者抬槓的蘋果 iOS 系統智慧助理 Siri,雖然它會在你問出某些問題時給出「有個性」的解答,但這仍然是基於工程師的設定。目前能展現出個性與意識的人機互動,基本上都是透過設定讓它表現得「讓人覺得」它有意識。

Siri有些回答真的很有個性啊!

「天網」這種領悟到自身存在、要保護自我、會分析未來、甚至推翻創造者交付的任務,這都是有處理通用問題的「強人工智慧」(Strong AI)才具備的能力,今天的人工智慧技術還差得遠。而且即使有強人工智慧的運算能力的電腦也未必能自行產生「意識」。1

-----廣告,請繼續往下閱讀-----

人工智慧學者們多認為機器終將獲得意識,但什麼時候來?每個人的看法不一。未來大師 Ray Kurzweil 曾預測這一天會在2029年來臨2,有人說這預測太過樂觀,還有其他大師級的人物說這是八字沒一撇的事。有AI教父之稱的Yoshua Bengio在最近BBC的專訪中說:「或許人工意識違反了目前未知的基本理論,根本無法達到。」3

傷腦筋,到底該聽誰的?若你很好學、試著自己到Google Scholar去找「artificial consciousness」的相關資料,就可以看出這個領域還停在基礎數學的定義和哲學道德的探討,並沒有人真的在動手做人工意識,很難相信在可預見的未來「天網」會成真。

威脅程度:輕微。

可能威脅二:人工智慧當殺手,殺手機器人即將誕生?

SpaceX和 Tesla的創辦人伊隆·馬斯克 (Elon Musk) 曾說:「人工智慧武器比核武更具革命性,更可怕。」還記得 2 年前他曾經與一百多位的 AI 專家簽署一封公開信,籲請聯合國禁止使用人工智慧的殺手機器人嗎?4那時候這封公開信得到全世界的共鳴,所以可怕的殺手機器人應該會被禁,未來世界很安全吧。

在世人眼中黑科技代表的SpaceX創辦人馬斯克也主張人工智慧不應武器化,可見其威脅程度了。

-----廣告,請繼續往下閱讀-----

事實上聯合國沒在理睬,而且各國也各自悄悄地發展,把人工智慧加在陸、海、空、太空、和網路上的武力上,然後用「自動化防禦系統」之類的詞來沖淡AI的色彩。先不管天網那樣的科幻情節,現在馬上就會碰到的問題是:機器憑什麼決定誰該死?如何確定機器在瞬息萬變的戰場上不會出錯?但也有人認為由人工智慧操作武器反而更安全、精準,甚至可以承受對方先開火後再展開第二擊,而且就算機器會出錯,也比20來歲緊張的新兵好吧。5

你覺得人工智慧武器化是不道德的嗎?那麼請你心裡想一個你心目中的「敵國」,請問那個國家可不可能正在發展人工智慧武器?如果是,那你能忍受未來自己的國家因為道德上的堅持而在戰場上被吊打嗎?正因每個國家都這麼想,所以人工智慧武器化變成一個無法阻擋的潮流。


波士頓動力機器人的設計很接近人形,並且有相當不錯的適應地形能力。

這些武器的外型會像魔鬼終結者那樣的人形機器人嗎?是有可能的。人形機器人的優點就是能立刻融入人類的環境:上下樓梯、操作武器與工具、開車,大家熟知的波士頓動力機器人 (Boston Dynamics) 就是因此致力於人形機器人的發展,而俄國的機器人 Fedor 更曾光明正大地在媒體前開槍打靶。對了,兩個月前俄國還送了一台 Fedor 上了國際太空站喔,只有我覺得這是科幻恐怖片的前奏嗎?

-----廣告,請繼續往下閱讀-----

智慧型的武器也未必要人型,甚至不一定要有形體,最可怕的人工智慧武器可能根本不需一槍一彈就可操控其他國家的政治、輿論和經濟,或許我們正在目睹這種人工智慧武器的演化過程。

威脅程度:高

可能威脅三:機器會毀滅世界、奴役人類?

既然剛才說短期內不會有電腦覺醒後立志殺滅人類,那就不會有機器毀滅世界或奴役人類這樣的事了吧──不見得,那要看我們怎麼定義「毀滅世界」。

人工智慧對人類未來最大的威脅,可能並不像《魔鬼終結者》那樣變成殺人機器人在路上到處打架?圖/《魔鬼終結者:黑暗宿命》劇照

如果毀滅是像「審判日」那樣的末世情景,那不至於;但如果我們放任人工智慧的發展,那人類有可能過著奴隸的生活。倒不是說是被機器奴役,而是人藉著人工智慧的優勢來奴役其他人

套一句知名深度學習研究者、於2018年得過圖靈獎的科學家 Yoshua Bengio 的話:「人工智慧主宰人類並不是問題,人如何誤用人工智慧才是問題。人工智慧會怎麼導致社會不均?會怎麼用來控制人民?會怎麼武器化?」3

-----廣告,請繼續往下閱讀-----
從紀錄片《ALPHAGO》的海報設計,就可以看出人類對於人工智慧的隱隱不安。圖/IMDb

如果只有少數人能擁有昂貴的電腦運算,也就只有少數人能接觸快速且全面的資訊。當人工智慧的能力越來越大,這些少數人與其他人的差距就有了天壤之別;他們就好像有了全知全能的神力,讓他們累積更多資源來取得更大的能力。

舉個例子,如果有人工智慧版的高頻交易,不但可以預測股市走勢、甚至能有炒短線的能力,就算預測的時間差只有提早 0.1秒,他的主人仍可以在短時間內藉大量買賣而獲取暴利。其他還靠人腦的無辜股民們根本無法跟上他的速度,只能當韭菜被收割,老百姓的血汗積蓄就間接到了他們的口袋中,這在意義上就是奴役了。

你現在有沒有被機器統治的心理準備?

威脅程度:高

究竟人類的未來與人工智慧會是怎樣的關係?人工智慧是否會徹底改變、甚至摧毀人類的文明呢?我們只能耐心等繼續看下去了。

-----廣告,請繼續往下閱讀-----

在此之前,《魔鬼終結者:黑暗宿命》即將於 11 月 7 日上映,可以先看看《魔鬼終結者系列》正宗第三集,體會一下人類與 AI 相愛相殺 (?)的動作片吧!

Reference

  1. Subhash Chandra Pandey. Can artificially intelligent agents really be conscious? |. Sādhanā. 2018;43.
  2. Goldman I by A. Ray Kurzweil Says We’re Going to Live Forever. The New York Times. 25 Jan 2013.
  3. Lee SS Dave. Terminator sends shudder across AI labs. BBC News. 25 Oct 2019.
  4. Gibbs S. Elon Musk leads 116 experts calling for outright ban of killer robots. The Guardian. 20 Aug 2017.
  5. Etzioni A, Etzioni O. Pros and cons of autonomous weapons systems. Military Review, May-June. 2017.

本文由 Fox Movie 委託,泛科學企劃執行

文章難易度
鳥苷三磷酸 (PanSci Promo)_96
197 篇文章 ・ 302 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

1

1
1

文字

分享

1
1
1
讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員
研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

-----廣告,請繼續往下閱讀-----

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3441 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

1
1

文字

分享

0
1
1
跨物種溝通即將成真!若有動物的「翻譯蒟蒻」你想擁有嗎?
鳥苷三磷酸 (PanSci Promo)_96
・2023/11/13 ・4484字 ・閱讀時間約 9 分鐘

-----廣告,請繼續往下閱讀-----

人與動物之間的溝通一直是科學界和哲學界十分引人關注的一個議題。傳統觀點認為,人類和其他動物之間的溝通受到生物學和語言能力的限制,因此很難實現真正的互相理解。然而,近年來,科學家們對這個問題的看法已經開始轉變,並且有一些跡象表明跨物種溝通有望成為現實。

為什麼科學家認為跨物種溝通即將成真?從海豚到水豚、從蜘蛛到山豬,人工智慧能成為所有生物的萬能「翻譯蒟蒻」嗎?當人類真的破解了另一物種的溝通方式,未來會發生什麼事呢?

跨物種溝通即將成真?圖/giphy

為什麼動物溝通,備「獸」關注?

從古代神話、經典傳說,到熱門動漫影視,都有不少能說人話、化為人形的動物,像是美猴王孫悟空、馴鹿喬巴、還有火箭浣熊,這些擬人化的角色雖然外表參雜獸的特質,卻往往更有人性,故事也著重呈現人與獸人如何從誤解到包容,讓我們為之動容。

在當代台灣的漫畫作品中,許多優秀的新一代漫畫家探討了擬人化動物和人類之間的隔閡、衝突以及理解,呈現了多元化的故事情節。其中,有一些引人入勝的作品,例如《瀕臨絕種團》,故事描述了被路殺後轉生成人類的石虎、黑熊和水獺,當上 YouTuber 還成為高中女生的故事。這個作品提供了獨特的視角,探討了不同物種之間的互動和冒險。

-----廣告,請繼續往下閱讀-----

另一部作品是《海巫事務所》,它將魔法元素融入生物學,講述了一個迷茫的廢業青年與擬人化海洋動物相遇並相互療癒的故事。還有一個短篇漫畫《IVE》,通過科幻的方式,描述了某種深海雌鮟鱇的繁殖和誘導機制,卻將目標對象設定為人類男性的謎般生物,及她和科學家之間的異色關係。

短篇漫畫《IVE》描述了有著雌鮟鱇的繁殖和誘導機制,卻將目標對象設定為人類男性的謎般生物,及她和科學家之間的異色關係。圖/CCC 追漫台

這些作品在畫風和故事情節方面都各有特色,無論你是一位一般漫畫愛好者還是偏愛條漫,你都可以在 CCC 追漫台找到它們,享受不同的視覺和情感體驗。

而這幾部作品的共通核心問題就是:如果動物能用人類的語言跟我們溝通,會怎樣?即使牠們能跟我們說話了,我們就能理解彼此嗎?要取得那唯一的真相,除了請出《不可知論偵探》海麟子(也是 CCC 追漫台 上的熱門作品),科學家還有一個辦法:就讓動物自己說話吧!今年 7 月 Science 期刊上發表了一篇觀點文章,標題為《用機器學習解碼動物溝通》表示新方法有望帶來全新的洞見,也有助於保育。不過在打電話給露洽露洽之前,我們得先了解什麼是動物溝通?

什麼是動物溝通?

首先要有一個清楚的認知,那就是人類跟所有其他的動物,都各自受限於自己的感官,活在不同的「環境界」(Umwelt),這個德文的意思是說每一種生物都活在獨有的感官泡泡裡,所見、所聞、所聽、所嚐、所觸都跟其他生物截然不同。你想想,連人與人之間都會因為家庭背景、生活環境、媒體教育而對同一件事物有天差地遠的詮釋了,對跨物種來說,不同的感官體驗讓彼此如同身處完全不同的世界。

-----廣告,請繼續往下閱讀-----

例如,海龜和許多鳥類能感知地球的磁場,藉此進行長距離遷徙;而響尾蛇具有紅外線感覺器官,能夠在黑暗中感知幾公尺外的獵物體溫。蝙蝠則使用回音定位來捕捉飛蛾等獵物,每秒發射兩百次超音波脈衝,並根據百萬分之一秒的時間差距來精準定位目標。斑海豹則依賴其特殊的鬍鬚來察覺魚游過的流體動力,猶如水中留下的軌跡。角蟬使用震動通信,能夠透過植物表面傳遞信息給其他角蟬,即使對人類來說是聽不見的。至於我們的忠實夥伴狗,它們的世界主要由氣味構成,能夠分辨地下埋藏的松露、潛藏的地雷、古蹟、毒品甚至主人身體內的腫瘤等各種氣味。

狗狗的世界主要由氣味構成。圖/giphy

那麼,海龜要如何跟我們這些沒有磁場感應的人類解釋牠們的感覺呢?蜂鳥又要怎樣才能描述它看到的一億種顏色呢?這真的是雞同鴨講,甚至比牛頭更不對馬嘴!

但有越來越多科學家認為,隨著人工智慧(AI)的快速進步,破譯動物的溝通方式不再是不可能的事情。AI 能幫上什麼忙呢?首先,機器不具備人類的偏見,因此能幫助研究者更理解動物溝通系統的結構和功能,同時辨識我們和動物之間的差異。

其次,機器學習技術能夠辨識那些對於人類難以想像或無法感知的動物感官訊號,這些包括聲音、振動、光線、化學物質等。機器可以幫助分析這些訊號,並幫助我們理解動物想要傳遞的訊息。

-----廣告,請繼續往下閱讀-----

最後,AI 還可以基於動物訊號,開發出預測動物行為的模型。例如預測動物的交配行為或遷徙模式,或何時可能需要尋找庇護避免捕食者。

此刻的我們對於深度學習能完美辨識圖像語音,以及 GPT-4 或 PaLM 2 等大型語言模型能生成語言,甚至跟我們交談,完全不覺得奇怪,但可能僅僅 10 年前,這都還像是天方夜譚。那麼將這份能力運用在動物身上,也將變得理所當然……嗎?

現在科學家已經做到什麼程度?破解了哪些動物語言呢?

科學家正在使用人工智慧來解讀各種物種的動物溝通方式。

例如烏鴉:英國聖安德魯斯大學的科學家 Christian Rutz 長期研究南太平洋的新喀里多尼亞烏鴉( New Caledonian Crow ),牠們是少數能夠製造工具的鳥類,會把樹枝的葉子拔掉,做成鉤子來釣蟲,不同群體的作法也有差異。他發現島上不同烏鴉群體有不同的叫聲,可能是文化得以傳播的關鍵。身為烏鴉專家的他加入了 ESP 地球物種計畫,研究二十年前已經野外滅絕,現在只剩圈養個體的夏威夷烏鴉,他們用機器學習來比較圈養跟野生烏鴉的錄音,了解圈養是否改變了烏鴉的詞彙,例如注意威脅、求偶等重要的叫聲,是否已經在圈養環境中失去了,如果我們破譯這些叫聲,可能可以幫助這些烏鴉重新野化。

-----廣告,請繼續往下閱讀-----
或許我們可以預測鯨魚會說什麼,反過來和牠們對話?圖/giphy

哺乳類的另一個成員鯨魚更是重點研究對象,2020年成立的 CETI,由 40 多名科學家、跨15 個機構組成,是最受關注的鯨語破譯團隊。他們除了駕船出海用水下麥克風偷聽鯨魚對話,也使用無人機從上方監看,更計畫在加勒比海海底安裝三個監聽站,從遠處捕捉離海岸 12 英里處抹香鯨聊天的喀噠咔嗒聲。以前啊,抹香鯨的聲音被比擬為單純的二進位代碼,但其實更為複雜,而機器學習可以重新辨識這些聲音。圖靈獎得主,加州大學柏克萊分校西蒙斯計算理論研究所所長莎菲·戈德瓦塞爾( Shafi Goldwasser )受訪時就說, CETI 的目標就是要像 ChatGPT 一樣,能預測鯨魚會說什麼,甚至反過來和鯨魚對話。

這些只是 AI 解讀的眾多物種中的一部分,其他還有不少鳥類、靈長類、海豚、蜘蛛、螞蟻、蜂類,或與人親近的貓、狗、豬等,也都是目前被科學家認為有機會破譯其「語言」的生物。

如果我們成功解讀出了動物的語言,我們又該從什麼角度與動物溝通?我們所「理解的語言」真的一樣嗎?

就算解讀動物溝通,能避免擬人化的陷阱嗎?

儘管機器學習在許多情況下表現出令人印象深刻的準確性,但動物的聲音、姿態和其他訊號往往具有多義性,也就是同一個訊號可能有多個意思,很難正確解釋它們的含義。此外,機器學習再強,目前也存在限制,特別是我們尚未完全理解的感知機制,如電感、磁感和費洛蒙等。

-----廣告,請繼續往下閱讀-----

在漫畫《瀕臨絕種團》跟《海巫事務所》中,動物跟人類除了偶爾吵架之外,基本上相處得極為融洽,這也是我們人類想像中希望的情境,就是能與動物友善地、無惡意地溝通。而在《 IVE 》這部異色科幻作品中,則提出更現實的問題。汪幼海博士認為 IVE 為了與人接觸,如鮟鱇魚一般的餌球竟然為了吸引人類而變成人形,甚至可以與人溝通。雖然令人驚喜,但這也意味 IVE 的目的就是要讓人類成為其血肉的一份子,獲取其基因,因此也使用類似費洛蒙的物質吸引人類男性。對鮟鱇魚或 IVE 來說,這是很自然、毫無惡意的,但對人類來說,就是一種恐懼的殺戮。大自然中本來就有許多「愛」是以殺為結局,包括蜘蛛、螳螂等。人類又要如何在對事物理解前提完全不同的情況下,與動物更深度溝通呢?

圖/pexels

在科學研究上,我們情不自禁地把動物擬人化更是個麻煩且不容易解決的問題,要是過於擬人化地認為動物跟人類共享一樣的情感,可能導致研究者在實驗設計和解釋結果時受到情感干擾,使研究不客觀。此外,擬人化也會使研究者更容易面臨到底是該保護動物權益,還是進行實驗研究之間的衝突,陷入倫理的困境。

但若反過來,要是有科學家認為動物跟人類完全不同,因此缺乏同情心,不尊重動物權益,倫理問題只會更嚴重。現在大家對動物福祉很關注,尤其是在涉及動物實驗和野生動物保護的時候,研究人員對動物無感情的態度反而可能導致研究受到質疑。更重要的是,這會讓科學家缺乏共鳴和洞察力,忘記我們也是動物。因此啊,如何拿捏分寸,在過分擬人跟缺乏同情的兩端之間找到適當的位置,也是動物溝通研究者的重要問題。

人類會將破譯動物溝通的能力拿來善用嗎?怎樣算是善用呢?

在石虎、黑熊跟水獺轉生變高中女生、IVE 開始對人類有興趣之前,機器學習的確可幫助我們監控和保護瀕臨絕種的野生物種,透過解讀其溝通方式,更了解牠們的需求和行為,制定更有效的保育策略。也能夠幫助我們理解圈養動物的情感和需求,從而改進在人類照顧下的生活品質。

-----廣告,請繼續往下閱讀-----

然而,當播放動物聲音以吸引它們或干擾它們時,會不會對它們的行為產生不可預測的影響?甚至不可逆地改變群體的文化,從而威脅它們的生存和生態系統的平衡?假訊息在人類世界已經夠麻煩的了,想像一下,若連動物世界也都被假訊息入侵時,會發生什麼事呢?

CCC 追漫台是一個臺灣原創漫畫平台

致力於推廣臺灣漫畫,並將臺灣漫畫融入日常生活。這個平台由本土新銳圖文創作者們打造,並結合國家典藏資料素材,以探索臺灣的豐富歷史、民俗、社會和生態等多元議題。

CCC 追漫台的使命是透過原創漫畫作品,傳達臺灣在地精神,讓讀者深入了解這個多元文化的島嶼。通過精心創作的漫畫,平台不僅提供了具娛樂性的閱讀體驗,還擴展了讀者對臺灣文化和歷史的認識。

文章中提及之漫畫皆可在追漫台上閱讀唷。

鳥苷三磷酸 (PanSci Promo)_96
197 篇文章 ・ 302 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

6
1

文字

分享

0
6
1
ChatGPT 還是 AI 之王嗎?Google Bard AI 與微軟 Bing AI 的終極測試
泛科學院_96
・2023/08/12 ・537字 ・閱讀時間約 1 分鐘

-----廣告,請繼續往下閱讀-----

今天這集影片我們準備拿 ChatGPT、Google Bard AI 跟微軟的 Bing AI 來作一個大亂鬥比賽,我們準備了幾個不同的挑戰看誰最厲害。

因為 Bard 跟 Bing 都是免費提供,為了公平性,我主要會使用免費的 GPT 3.5 來比較,不過我同時會放上 GPT-4 開啟網路瀏覽功能的結果來給各位作參考。

評比的成果我會給一顆星到五顆星來呈現,主要分為四個類別:易用性、實用性、創造性以及回應速度。

看完今天的影片,你會想要使用Bing、Bard還是Chatgpt呢?歡迎在影片下方留下你的看法

-----廣告,請繼續往下閱讀-----

如果這支影片對你有幫助的話,請幫我在影片下方點個喜歡,並且把這支影片分享給需要的朋友,最後別忘了訂閱泛科學院的頻道,我們下支影片再見囉。

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

泛科學院_96
33 篇文章 ・ 42 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!