2

0
1

文字

分享

2
0
1

用演算法可以揪出大樂透有沒有作弊嗎?又或者是…中獎號碼?

活躍星系核_96
・2017/09/18 ・3342字 ・閱讀時間約 6 分鐘 ・SR值 493 ・六年級

-----廣告,請繼續往下閱讀-----

  • 作者 / 超科學貓,本身工作是平面設計師,自學程式語言 10 年,專研人工智慧深度學習領域約 8 年左右,主要研究記憶過程的演算法。仔細的去觀察這世界,就會發現許多奇怪的盲點,但以程式語言帶入去解,卻可以解釋許多問題;只要有記事本,我就可以創造一個世界。

「一券在手希望無窮」,但買大樂透中獎的卻都從來不是我。到底為什麼大樂透那麼難中?難道它真的有作弊嗎?又或是公務員常常中獎的掛並非空穴來風?

你是否也曾經看過一些類似的文章指出大樂透的作弊機制呢?內容大概是在說,明明是在 8 點截止購買,卻在 8 點 30 分才公開當期結果,這消失的 30 分鐘就是台彩在進行分析比對,開出一組沒有人中過、或是給公務人員中獎的號碼。

到底為什麼大樂透那麼難中?圖/By  krzys16 @ Pixabay

我研究人工智慧深度學習領域已有八年餘載,也有自己撰寫的一套人工智慧系統以及一些類似智慧型小軟體來輔助我的生活,這次我決定用我撰寫的人工智慧系統來演算樂透開獎的結果,想不到得到令人驚訝的結果,以下是我一個多月來的研究和分析,或許可以解釋或說明大樂透為什麼這麼難中,他是否真的有作弊呢?要怎麼買才會賺呢?

有可能打出一模一樣的撞球球型嗎?談自然機率與演算法

首先,我先舉幾個例子讓大家了解演算法自然機率

-----廣告,請繼續往下閱讀-----

有打過撞球的人都知道,每次開球後的球型幾乎沒有一次會與曾經開過的球型分佈一模一樣,從物理學來看,會不會有完全一模一樣的機率呢?答案是有的,那為什麼我們遇不到呢?因為他發生的機率實在太小太小了,小到我們在這一生或者幾輩子的時間裡都還遇不到一次,如果在加上空氣的濕度,球桌的毛順度,皮頭的摩擦力等等,在球桌這樣有限的空間範圍裡,16 顆球的碰撞後,出現一模一樣的機率幾乎為 0,但是不能說沒有。

如果上面所說的已經理解,再來看下面可能會比較清楚,有打過撞球的人都會有一種經驗,「怎麼球型又變成這樣!」沒錯,雖然上面說出現一模一樣的機率幾乎為 0,但是出現相似的機率卻高出很多,原因在於幾次碰撞後,由於外在的影響取決於習性,所以會很常出現相似的球型。

每次開球後的球型幾乎沒有一次會與曾經開過的球型分佈一模一樣。圖/By Paul Goyette @ flickr, CC BY-NC-SA 2.0

第三個例子或許有從電視上看過,或者親自被問過,這個問題是這樣的:隨機在 1~50 想一個數字,然後「魔術師」可以猜中你心裡所想的數字。你可能會認為你所想的那一個數字是隨機而來的 By Chance,但其實不然。在幼齡時期腦中的認知中沒有數字的概念時,我們根本無法得出那一個數字;因此這一個看似隨機而來的數字,其實是經由腦中不斷的演算各種環境數值後,求得的最大可能性,這些環境數值大多是在沒有意識到的情況下被記錄下來,但由於環境的參數太多太亂,所以這些資訊很難被演算變成結果,但卻會變成演算的一部分,而這樣的過程視為 By Design。

好,如果上面三個都能理解了,現在我們換成大樂透來看,假設開球的設備就像撞球的球檯,他是一個有限的空間和範圍,讓 49 顆號碼球互相碰撞後,最後取出的 7 個號碼 (含特別號),中頭獎的機率為 1/10,068,347,520,看起來機率非常的小,但實際機率卻不然,我們可以把每次的碰撞視為 By Design 而不是 By Chance,哪顆球與哪顆球會碰撞到,完全可以從演算法中計算出來,當然開獎的結果也可以由演算法得出。

-----廣告,請繼續往下閱讀-----

用演算法可以揪出大樂透有沒有作弊嗎?又或者是…中獎號碼?

演算的概念為,此次開獎的數組,是由過去相似模型中取得最大可能性的模型排列;簡單的說,你的身高樣貌等等,是由你的父母基因,還有父母的父母基因,一直追溯到最源頭;而你的父母、父母的父母,就會成為推算出你身高樣貌的數據,從最源頭的祖先累積下來的基因,就會變成龐大的數據。

以這樣的概念做為出發點,我做了為期一個月的實驗,這個實驗分成了三個部分;

  1. 確認大樂透是否作弊
  2. 以隨機數程式碼 Math.random() 模擬電腦隨機選號的機率
  3. 算出最大中獎率的投資報酬率

在第一個實驗中,我以我撰寫的人工智慧演算法套入截至目前 1,406 組的開獎結果,並且逐一預測每次開獎的結果和中獎次數;並且以前次、前前次,甚至可以推到前 10 次來演算這次的號碼。

令人驚訝的是,由演算法推算出下一次7個號碼(含特別號)預測中的機率約為70~72%左右(不過這裡指的不是中獎率,而是中1~6碼的機率)。但也不用高興的太早,因為這邊的機率為中 1 個號碼到中 6 個號碼的全部機率,如果要說是投資報酬率,就要以大樂透的規則中三碼以上才有獎金的結果來看;中三碼以上的機率其實只有 6%~7% 左右。接著為了確認是否有可能會有人為操作,於是再以開獎順序、大小順序來進行演算,或者調整 P 值當中的數據,將近三組的演算最高、最低做重新組合再演算;而這樣得出的結果幾乎都大同小異。

-----廣告,請繼續往下閱讀-----

而且各個位置開出來中的機率也幾乎平均在 20% 左右;從這邊可以得出,若在人為操縱的情況下,某個位置或者某一號碼,也可能是為了避開多人選的中獎號碼而選擇機率較低的情況,中獎的樹狀圖應該不會呈現平均。

在這邊舉一個簡單的例子:投擲硬幣出現正反面的機率為 1:1,若以此機率來看,投擲十次出現的機率應該約為 5:5 或 4:6,若今天有人為操作,當你投擲 100次的時候就會發現,正反面的比數會非常的大,可能是 20:80;而且不管是更換硬幣,或者更換投擲者,只要在人為操作的情況下,比例幾乎都會失衡。所以從各種情況下的演算過的機率幾乎相同的結果來看,台彩作弊的嫌疑甚低。

在第二個實驗中,以隨機數程式碼 Math.random() 隨機從 1~49 個號碼中選出 6 個不重覆的號碼進行比對的平均值。結果更令人驚訝,居然與第一個實驗的機率大致相同!於是基於好奇心,我決定以一組隨機 7 碼(含特別號)當做開獎結果,再算一筆隨機 6 碼當作電腦選號,結果也與上面相似。

第二個實驗結束後,幾乎可以得到幾個結論:

-----廣告,請繼續往下閱讀-----
  1. 演算法仰賴大數據,而 1,406 組的數據樣本太少,在虛無假設正確率過低的情況下,就算在乘上最大機率的演算結果,最後的機率仍然偏低。我這邊舉個例子,使用保險套能避孕的機率為 98%,但是這是在 100% 正確使用的情況下的機率,這裡的 100% 就是虛無假設,若在不正常的情況下使用,就會降低虛無假設的機率,若機率降為 80%,則成功避孕的機率為 0.8*98=78.4,所以就沒有原本的 98% 成功率來的高。
  2. 若在自然機率的情況下,演算法的機率應該會大過於隨機數。但在這裡卻沒有,原因可能為無法預測的情況。在撞球的例子當中有提到,若空氣的濕度、球檯的毛順度都會影響甚至改變演算的結果,而上面的演算法是在一個沒有其他干擾的情況下碰撞演算出來的,如果每次開獎前,都將號碼球經由不同的人弄亂,又或者每次都用不同的號碼球,這樣演算出了的結果就幾乎等於隨機數的結果了,這點從第二個實驗中的更改版中可以得到證實。若把中三碼以上的原始機率設為 y,則中獎的機率算法是 y*(n*(1/x+1)),n 代表不同的因素,x 代表各種因素中的重覆次數;因此可能是造成演算法的機率大大下降的原因。
圖/By  Bclaus_indesign @ Pixabay

第三個實驗為中獎的投資報酬率,從上面的兩個研究結果中已知單筆的中獎率為 7%,所以我以一次開出 300 組隨機數代表電腦選號來進行比對,扣除購買成本 50(元)*300(組)* 1406(次開獎)=21,090,000(元),以三碼為 400、四碼為 1,000、五碼 50,000 來換算,結果還是會賠本約為 2/3 的錢。但是平均卻有 1~2 次中 6 碼,大樂透只要 6 碼全中至少保證 1 億元,扣除2 千萬的成本似乎是可以投資的;但先別高興的太早,樂透中有一個機制叫做特別號,如果中的 6 碼是 5 碼+特別號,獎金只有約一百萬左右。

其實用很粗淺的方式換算的話每期只要銷售個大約一千五百多組以上,這樣就算有人中了頭獎台灣彩券也不太會賠本。加上原本中頭獎的機率就低,台彩就算在不作弊的情況下也不會賠錢,所以他不怕你中頭獎,以上面研究總結來看,大樂透作弊的機率甚低。不過「有夢最美,希望相隨」畢竟大樂透還是造就了許多億萬富翁,但是各位還是得依自己的狀況,依自己能力有限的範圍來做小額投資,千萬別走火入魔、傾家蕩產了。

文章難易度
所有討論 2
活躍星系核_96
752 篇文章 ・ 122 位粉絲
活躍星系核(active galactic nucleus, AGN)是一類中央核區活動性很強的河外星系。這些星系比普通星系活躍,在從無線電波到伽瑪射線的全波段裡都發出很強的電磁輻射。 本帳號發表來自各方的投稿。附有資料出處的科學好文,都歡迎你來投稿喔。 Email: contact@pansci.asia

1

1
1

文字

分享

1
1
1
讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員
研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

-----廣告,請繼續往下閱讀-----

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3402 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

1
1

文字

分享

0
1
1
跨物種溝通即將成真!若有動物的「翻譯蒟蒻」你想擁有嗎?
鳥苷三磷酸 (PanSci Promo)_96
・2023/11/13 ・4484字 ・閱讀時間約 9 分鐘

-----廣告,請繼續往下閱讀-----

人與動物之間的溝通一直是科學界和哲學界十分引人關注的一個議題。傳統觀點認為,人類和其他動物之間的溝通受到生物學和語言能力的限制,因此很難實現真正的互相理解。然而,近年來,科學家們對這個問題的看法已經開始轉變,並且有一些跡象表明跨物種溝通有望成為現實。

為什麼科學家認為跨物種溝通即將成真?從海豚到水豚、從蜘蛛到山豬,人工智慧能成為所有生物的萬能「翻譯蒟蒻」嗎?當人類真的破解了另一物種的溝通方式,未來會發生什麼事呢?

跨物種溝通即將成真?圖/giphy

為什麼動物溝通,備「獸」關注?

從古代神話、經典傳說,到熱門動漫影視,都有不少能說人話、化為人形的動物,像是美猴王孫悟空、馴鹿喬巴、還有火箭浣熊,這些擬人化的角色雖然外表參雜獸的特質,卻往往更有人性,故事也著重呈現人與獸人如何從誤解到包容,讓我們為之動容。

在當代台灣的漫畫作品中,許多優秀的新一代漫畫家探討了擬人化動物和人類之間的隔閡、衝突以及理解,呈現了多元化的故事情節。其中,有一些引人入勝的作品,例如《瀕臨絕種團》,故事描述了被路殺後轉生成人類的石虎、黑熊和水獺,當上 YouTuber 還成為高中女生的故事。這個作品提供了獨特的視角,探討了不同物種之間的互動和冒險。

-----廣告,請繼續往下閱讀-----

另一部作品是《海巫事務所》,它將魔法元素融入生物學,講述了一個迷茫的廢業青年與擬人化海洋動物相遇並相互療癒的故事。還有一個短篇漫畫《IVE》,通過科幻的方式,描述了某種深海雌鮟鱇的繁殖和誘導機制,卻將目標對象設定為人類男性的謎般生物,及她和科學家之間的異色關係。

短篇漫畫《IVE》描述了有著雌鮟鱇的繁殖和誘導機制,卻將目標對象設定為人類男性的謎般生物,及她和科學家之間的異色關係。圖/CCC 追漫台

這些作品在畫風和故事情節方面都各有特色,無論你是一位一般漫畫愛好者還是偏愛條漫,你都可以在 CCC 追漫台找到它們,享受不同的視覺和情感體驗。

而這幾部作品的共通核心問題就是:如果動物能用人類的語言跟我們溝通,會怎樣?即使牠們能跟我們說話了,我們就能理解彼此嗎?要取得那唯一的真相,除了請出《不可知論偵探》海麟子(也是 CCC 追漫台 上的熱門作品),科學家還有一個辦法:就讓動物自己說話吧!今年 7 月 Science 期刊上發表了一篇觀點文章,標題為《用機器學習解碼動物溝通》表示新方法有望帶來全新的洞見,也有助於保育。不過在打電話給露洽露洽之前,我們得先了解什麼是動物溝通?

什麼是動物溝通?

首先要有一個清楚的認知,那就是人類跟所有其他的動物,都各自受限於自己的感官,活在不同的「環境界」(Umwelt),這個德文的意思是說每一種生物都活在獨有的感官泡泡裡,所見、所聞、所聽、所嚐、所觸都跟其他生物截然不同。你想想,連人與人之間都會因為家庭背景、生活環境、媒體教育而對同一件事物有天差地遠的詮釋了,對跨物種來說,不同的感官體驗讓彼此如同身處完全不同的世界。

-----廣告,請繼續往下閱讀-----

例如,海龜和許多鳥類能感知地球的磁場,藉此進行長距離遷徙;而響尾蛇具有紅外線感覺器官,能夠在黑暗中感知幾公尺外的獵物體溫。蝙蝠則使用回音定位來捕捉飛蛾等獵物,每秒發射兩百次超音波脈衝,並根據百萬分之一秒的時間差距來精準定位目標。斑海豹則依賴其特殊的鬍鬚來察覺魚游過的流體動力,猶如水中留下的軌跡。角蟬使用震動通信,能夠透過植物表面傳遞信息給其他角蟬,即使對人類來說是聽不見的。至於我們的忠實夥伴狗,它們的世界主要由氣味構成,能夠分辨地下埋藏的松露、潛藏的地雷、古蹟、毒品甚至主人身體內的腫瘤等各種氣味。

狗狗的世界主要由氣味構成。圖/giphy

那麼,海龜要如何跟我們這些沒有磁場感應的人類解釋牠們的感覺呢?蜂鳥又要怎樣才能描述它看到的一億種顏色呢?這真的是雞同鴨講,甚至比牛頭更不對馬嘴!

但有越來越多科學家認為,隨著人工智慧(AI)的快速進步,破譯動物的溝通方式不再是不可能的事情。AI 能幫上什麼忙呢?首先,機器不具備人類的偏見,因此能幫助研究者更理解動物溝通系統的結構和功能,同時辨識我們和動物之間的差異。

其次,機器學習技術能夠辨識那些對於人類難以想像或無法感知的動物感官訊號,這些包括聲音、振動、光線、化學物質等。機器可以幫助分析這些訊號,並幫助我們理解動物想要傳遞的訊息。

-----廣告,請繼續往下閱讀-----

最後,AI 還可以基於動物訊號,開發出預測動物行為的模型。例如預測動物的交配行為或遷徙模式,或何時可能需要尋找庇護避免捕食者。

此刻的我們對於深度學習能完美辨識圖像語音,以及 GPT-4 或 PaLM 2 等大型語言模型能生成語言,甚至跟我們交談,完全不覺得奇怪,但可能僅僅 10 年前,這都還像是天方夜譚。那麼將這份能力運用在動物身上,也將變得理所當然……嗎?

現在科學家已經做到什麼程度?破解了哪些動物語言呢?

科學家正在使用人工智慧來解讀各種物種的動物溝通方式。

例如烏鴉:英國聖安德魯斯大學的科學家 Christian Rutz 長期研究南太平洋的新喀里多尼亞烏鴉( New Caledonian Crow ),牠們是少數能夠製造工具的鳥類,會把樹枝的葉子拔掉,做成鉤子來釣蟲,不同群體的作法也有差異。他發現島上不同烏鴉群體有不同的叫聲,可能是文化得以傳播的關鍵。身為烏鴉專家的他加入了 ESP 地球物種計畫,研究二十年前已經野外滅絕,現在只剩圈養個體的夏威夷烏鴉,他們用機器學習來比較圈養跟野生烏鴉的錄音,了解圈養是否改變了烏鴉的詞彙,例如注意威脅、求偶等重要的叫聲,是否已經在圈養環境中失去了,如果我們破譯這些叫聲,可能可以幫助這些烏鴉重新野化。

-----廣告,請繼續往下閱讀-----
或許我們可以預測鯨魚會說什麼,反過來和牠們對話?圖/giphy

哺乳類的另一個成員鯨魚更是重點研究對象,2020年成立的 CETI,由 40 多名科學家、跨15 個機構組成,是最受關注的鯨語破譯團隊。他們除了駕船出海用水下麥克風偷聽鯨魚對話,也使用無人機從上方監看,更計畫在加勒比海海底安裝三個監聽站,從遠處捕捉離海岸 12 英里處抹香鯨聊天的喀噠咔嗒聲。以前啊,抹香鯨的聲音被比擬為單純的二進位代碼,但其實更為複雜,而機器學習可以重新辨識這些聲音。圖靈獎得主,加州大學柏克萊分校西蒙斯計算理論研究所所長莎菲·戈德瓦塞爾( Shafi Goldwasser )受訪時就說, CETI 的目標就是要像 ChatGPT 一樣,能預測鯨魚會說什麼,甚至反過來和鯨魚對話。

這些只是 AI 解讀的眾多物種中的一部分,其他還有不少鳥類、靈長類、海豚、蜘蛛、螞蟻、蜂類,或與人親近的貓、狗、豬等,也都是目前被科學家認為有機會破譯其「語言」的生物。

如果我們成功解讀出了動物的語言,我們又該從什麼角度與動物溝通?我們所「理解的語言」真的一樣嗎?

就算解讀動物溝通,能避免擬人化的陷阱嗎?

儘管機器學習在許多情況下表現出令人印象深刻的準確性,但動物的聲音、姿態和其他訊號往往具有多義性,也就是同一個訊號可能有多個意思,很難正確解釋它們的含義。此外,機器學習再強,目前也存在限制,特別是我們尚未完全理解的感知機制,如電感、磁感和費洛蒙等。

-----廣告,請繼續往下閱讀-----

在漫畫《瀕臨絕種團》跟《海巫事務所》中,動物跟人類除了偶爾吵架之外,基本上相處得極為融洽,這也是我們人類想像中希望的情境,就是能與動物友善地、無惡意地溝通。而在《 IVE 》這部異色科幻作品中,則提出更現實的問題。汪幼海博士認為 IVE 為了與人接觸,如鮟鱇魚一般的餌球竟然為了吸引人類而變成人形,甚至可以與人溝通。雖然令人驚喜,但這也意味 IVE 的目的就是要讓人類成為其血肉的一份子,獲取其基因,因此也使用類似費洛蒙的物質吸引人類男性。對鮟鱇魚或 IVE 來說,這是很自然、毫無惡意的,但對人類來說,就是一種恐懼的殺戮。大自然中本來就有許多「愛」是以殺為結局,包括蜘蛛、螳螂等。人類又要如何在對事物理解前提完全不同的情況下,與動物更深度溝通呢?

圖/pexels

在科學研究上,我們情不自禁地把動物擬人化更是個麻煩且不容易解決的問題,要是過於擬人化地認為動物跟人類共享一樣的情感,可能導致研究者在實驗設計和解釋結果時受到情感干擾,使研究不客觀。此外,擬人化也會使研究者更容易面臨到底是該保護動物權益,還是進行實驗研究之間的衝突,陷入倫理的困境。

但若反過來,要是有科學家認為動物跟人類完全不同,因此缺乏同情心,不尊重動物權益,倫理問題只會更嚴重。現在大家對動物福祉很關注,尤其是在涉及動物實驗和野生動物保護的時候,研究人員對動物無感情的態度反而可能導致研究受到質疑。更重要的是,這會讓科學家缺乏共鳴和洞察力,忘記我們也是動物。因此啊,如何拿捏分寸,在過分擬人跟缺乏同情的兩端之間找到適當的位置,也是動物溝通研究者的重要問題。

人類會將破譯動物溝通的能力拿來善用嗎?怎樣算是善用呢?

在石虎、黑熊跟水獺轉生變高中女生、IVE 開始對人類有興趣之前,機器學習的確可幫助我們監控和保護瀕臨絕種的野生物種,透過解讀其溝通方式,更了解牠們的需求和行為,制定更有效的保育策略。也能夠幫助我們理解圈養動物的情感和需求,從而改進在人類照顧下的生活品質。

-----廣告,請繼續往下閱讀-----

然而,當播放動物聲音以吸引它們或干擾它們時,會不會對它們的行為產生不可預測的影響?甚至不可逆地改變群體的文化,從而威脅它們的生存和生態系統的平衡?假訊息在人類世界已經夠麻煩的了,想像一下,若連動物世界也都被假訊息入侵時,會發生什麼事呢?

CCC 追漫台是一個臺灣原創漫畫平台

致力於推廣臺灣漫畫,並將臺灣漫畫融入日常生活。這個平台由本土新銳圖文創作者們打造,並結合國家典藏資料素材,以探索臺灣的豐富歷史、民俗、社會和生態等多元議題。

CCC 追漫台的使命是透過原創漫畫作品,傳達臺灣在地精神,讓讀者深入了解這個多元文化的島嶼。通過精心創作的漫畫,平台不僅提供了具娛樂性的閱讀體驗,還擴展了讀者對臺灣文化和歷史的認識。

文章中提及之漫畫皆可在追漫台上閱讀唷。

鳥苷三磷酸 (PanSci Promo)_96
196 篇文章 ・ 302 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

6
1

文字

分享

0
6
1
ChatGPT 還是 AI 之王嗎?Google Bard AI 與微軟 Bing AI 的終極測試
泛科學院_96
・2023/08/12 ・537字 ・閱讀時間約 1 分鐘

-----廣告,請繼續往下閱讀-----

今天這集影片我們準備拿 ChatGPT、Google Bard AI 跟微軟的 Bing AI 來作一個大亂鬥比賽,我們準備了幾個不同的挑戰看誰最厲害。

因為 Bard 跟 Bing 都是免費提供,為了公平性,我主要會使用免費的 GPT 3.5 來比較,不過我同時會放上 GPT-4 開啟網路瀏覽功能的結果來給各位作參考。

評比的成果我會給一顆星到五顆星來呈現,主要分為四個類別:易用性、實用性、創造性以及回應速度。

看完今天的影片,你會想要使用Bing、Bard還是Chatgpt呢?歡迎在影片下方留下你的看法

-----廣告,請繼續往下閱讀-----

如果這支影片對你有幫助的話,請幫我在影片下方點個喜歡,並且把這支影片分享給需要的朋友,最後別忘了訂閱泛科學院的頻道,我們下支影片再見囉。

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

泛科學院_96
29 篇文章 ・ 38 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!