4

10
3

文字

分享

4
10
3

在機器與人的交會之處——《再.創世》專題

再・創世 Cybernetic_96
・2021/09/08 ・6672字 ・閱讀時間約 13 分鐘

  • 作者/施奇廷|東海大學應用物理學系 
「羅梭的萬能機器人」(Rossum’s Universal Robots) 劇中機器人反抗人類的一幕。圖/WIKIPEDIA

起源

從 1920 年「羅梭的萬能機器人」(Rossum’s Universal Robots,通稱R.U.R.)登上舞台以來,「機器人」這個概念,一直是科幻作品中的常客。機器人「具有人的形象,而(在某些方面)具有比人類更強的能力」的設定,一直刺激著人類的想像力:能力強大卻又聽命於人類的忠實僕人;或是領悟到自己其實可以取代人類,成為下一代的地球霸主?樂觀的期待與被反噬的恐懼,向來是欣賞以機器人為主題的科幻作品的兩大樂趣。不過近十年來「人工智慧」(Artificial Intelligence)與「機器人學」(Robotics)的發展速度超乎預期,上述本來只存在於科幻作品中的兩面議題,突然變得不是那麼遙不可及。

提出「機器人學」這個名詞,並將理論系統化的,並不是工程領域的學者,而是科幻小說大師艾薩克‧艾西莫夫(Isaac Asimov),這個詞現在已經成為工程界對機器人科學的正式名稱,是一個從科幻對科技「逆輸入」的有趣案例。生於俄羅斯的艾西莫夫的本行是就科學家(專長是生物化學),曾經任教於波士頓大學醫學院,不過後來因為全力投入寫作,不再進行一般學者的教學研究工作,但是波士頓大學仍然保留他的職位。他所接受過的嚴謹科學訓練,也反映在作品中。1940 年,年方 19 歲的艾西莫夫就發表了第一篇機器人短篇小說「小機」(Robbie,收錄於短篇小說集「我‧機器人」),開啟了「機器人系列」的序幕。

法則

「人類製造的機器人結果反過來支配人類」這個命題可說是充滿「為何要搬磚頭砸自己的腳」的矛盾,因為人類絕對可以在一開始設計、製造時就預防這件事發生。不過睽諸人類科技發展的歷史,這種矛盾其實一直存在,也不斷發生,目前我們面臨的「核能科技的發展衍生的核子大戰威脅」、「高度工業化生產導致環境污染」,以及「大量使用石化燃料導致全球氣候變遷」這些問題,都是現在進行式。

不過「人類依照自己的形象打造的仿人類」又有點不同,高功能的機器「外型像人」這件事,足以引起人類的「科學怪人情結」,讓人類會對機器人的發展保持高度的戒心,在此思考下,1942 年時,艾西莫夫在他的作品中,比照「牛頓運動學三定律」的規格,揭示了「機器人三定律」:

一、機器人不得傷害人類,也不能坐視人類受到傷害

二、在不違反第一法則的前提下,機器人必須保護自己的安全

三、在不違反第一與第二法則的前提下,機器人必須執行人類的命令

這三大法則是在機器人出廠時,就內建於其軟硬體內,絕對不容違反。如果讀者是「理科人」的話,大概會覺得這三大法則邏輯簡單明瞭,簡直無懈可擊,在此控制下,機器人應該可以成為人類最忠實的僕人,無須擔心他們會叛變了。

有趣的是,在艾西莫夫的機器人短篇小說中,幾乎都是在探討「會引起三大法則的缺陷、迷惑、矛盾的可能情境」,所以幾乎每篇小說都會產生一個「精神錯亂」的機器人。這些小說非常有趣,推薦喜歡「燒腦型作品」的讀者一讀。

Will Smith Robot GIF by 20th Century Fox Home Entertainment - Find & Share on GIPHY
電影中違反三大法則的機器人。/Giphy

這個系列作品的內容其實也部分反映了人性:人也是又內建「道德基準」(moral norms),能進行邏輯思考的動物,但是即使最理性冷靜的人,也是會碰到兩難的困境,例如著名的「電車難題」:「一輛失控的列車在軌道上急馳,在軌道上有五個人即將被碾過,你剛好在鐵軌的轉軌器旁邊,只要扳動轉軌器,就可以把列車轉向另一條軌道,但是另一條軌道上有一個人,本來不會有事,因為你將列車轉軌而會被碾斃,在這個狀況下,你到底要不要將列車轉軌呢?」幾十年來這個問題引起了許多哲學以及倫理學、社會學的廣泛討論。事實上,自動駕駛汽車(除了不具有人形之外,其實也算是機器人的一種)的設計就必須把這類情境納入考量。

電車難題。自動駕駛汽車的設計就必須把這類情境納入考量,其中牽涉了哲學、倫理學以及社會學 。 圖/WIKIPEDIA

就筆者的「理科腦」來看,這些矛盾的起因是「機器人定律與人類的道德準則是定性的,而實際情境卻是定量的」。例如兩個人類同時對一個機器人下命令,而這兩個命令互相矛盾,那麼這個機器人到底要聽誰的?這時候機器人必須對下命令的兩個人做出「定量上的評價」,決定執行哪一個命令。這個結果導致「機器人可以(必須)評價人類,將人類分出等級」,之後又會衍生出更多的問題…

1985 年時,在機器人系列故事四十餘年的發展之下,艾西莫夫被自己的筆下的故事逼得追加了一個「第零定律」,位階在原來的三定律之上:「機器人不得傷害『整體人類』,或坐視『整體人類』受到傷害。」,這下子定律的規格從「牛頓三定律」變成了「熱力學的零+三定律」了,不愧是正統派科學家出身!這個第零定律跟之前一樣,從邏輯上看起來也很合理,但是這又造成機器人必須評價「整體人類」的福祉是什麼,由於第零定律凌駕於第一定律之上,因此視情況機器人是可以為了避免整體人類受到傷害,而去傷害甚至殺死個人的,最後可能會演變成「機器人為了整體人類好而接管、控制人類社會」的反烏托邦結果。

不過或許是因為「機器人叛變」這個展開實在太過顯而易見,而且因為可以塞進許多動作場面而成為影視作品愛用的題材,艾西莫夫的機器人作品中對這方面反倒是著墨不多,而是將關心的焦點放在「機器人是否能在三定律的規範下,活出自己的人格?」這個主題的代表作,就是獲得 1976 年「雨果獎」與「星雲獎」雙料大獎的中篇小說「雙百人」,後來在 1992 年由令一位作家羅伯特‧席維伯格(Robert Silverberg)擴充成長篇小說「正子人」;這個故事也在 1999 年改編為電影「變人」,由已故的喜劇泰斗羅賓‧威廉斯(Robin Williams)主演。

說實在的,想要瞭解「機器 → 人形機器 → 機器人 → 人」的演進與思辯,而又沒有很多時間與耐性的讀者,看這一本就夠了。

1999 年的科幻電影《變人》,由作家羅伯特‧席維伯格的長篇小說「正子人」改編而成。

分流

前面花了相當的篇幅講了艾西莫夫的機器人觀,除了這個「大師典範之外」,其實幾十年的科幻與娛樂文化演變下來,機器人也了更多的樣貌。

好萊塢電影與日本動漫畫,是目前全球影視娛樂的兩大主流,當然兩者還是有一段差距,好萊塢挾其資金、人才、技術的實力,最為強勢;不過「小本經營」的日本御宅文化,在全世界的影響力也逐年提升,對好萊塢電影也產生了不小的影響。它們對於機器人這個主題的處理,有很大的不同。以下分成不同的機器人類型討論,不過要先說明的是,以下的分類有些是好萊塢電影擅長的題材,有些則是日本動漫畫的偏好,但是其實並沒有這麼涇渭分明,大部分在兩邊都有出現,只是多寡有別。

一、近未來,覺醒的機器人,成為人類之敵——好萊塢電影的機器人,跟艾西莫夫的機器人類似,是外型、尺寸都比照人類,並且具有不同程度的人工智慧。不過如前所述,好萊塢電影中的機器人有許多都是扮演「人類之敵」的大反派,完全不受艾西莫夫「機器人三定律」的節制,最經典的例子就是「魔鬼終結者」系列,劇中的機器人存在的目的就是用來追殺人類——可說是把「機器人三定律」完全反過來看就行了。這些機器人的背後是由一個名為「天網」的人工智慧,也可以說是個不具人形的機器人,本來是美國研發的國防電腦系統,後來這個系統產生自我意識,並且判斷人類才是「世界最大的威脅」,於是就發動核戰毀滅人類,並且持續掃蕩殘存的人類反抗軍,並且派遣機器人穿越時間回到過去殺害反抗軍領袖的母親以斬草除根。

相對於艾西莫夫小說中以「機器人三定律」來節制機器人的能力,以消除人們的「科學怪人情結」,努力讓人類社會接受機器人;「魔鬼終結者」系列是反過來喚起觀眾的「科學怪人情結」,再加上「末日電影」的背景設定,來營造危機感與戲劇性,然後在人類與機器人的對立下順理成章的大打出手,「拳腳與槍砲齊飛,鮮血共煙硝一色」,讓本來是「低成本 B 級動作片」的「魔鬼終結者」成為娛樂性與思想性兼具的成功作品。就這個視角而言,「駭客任務」中的架構與設定,以及成功的要素也頗有共同之處。

終結者 GIF
魔鬼終結者喚起觀眾的「科學怪人情結」,成為娛樂性與思想性兼具的成功作品。 圖/Giphy

二、遙遠的未來,機器人已經融入人類社會,共同面對更廣闊的星際世界——上述這種「人類與機器人的衝突與生死戰」的背景通常發生於「近未來」,故事舞台跟現代有相當程度的重疊,機器人進入生活的正面與負面效應,都比較能引起觀眾的代入感。如果是以「遙遠的未來」為背景,機器人與人類之間的「磨合陣痛期」已經過去,像是兩大名門「星際大戰」與「星際爭霸戰」,人類的足跡已經遍佈銀河系,見識過各種稀奇古怪的外星生命體,機器人也早就已經成為人類好伙伴,甚至被視為跟人類同等的存在了。

三、機器人是人類肉體的延伸,力量的放大器——另一方面,日本動漫畫作品中的機器人,除了早期的「原子小金剛」是走「真人的大小與外貌,且具有人工智慧」的路線以外,主流是象徵「人類力量的延伸」的「巨大機器人」類型。這種機器人不具有人工智慧,而是搭載操作界面與作業系統,由人類駕駛員來操作,相當於扮演其大腦的角色。以早期的名作「無敵鐵金剛」而言,所標舉的主題是「如果人類透過機器取得了巨大的力量,將會成為神?還是成為惡魔?」,這類作品有別於西方「機器如何變成人」,而是「人類與機器合為一體」的概念。

機器人是吸引目標觀眾目光的賣點,也是贊助或出資廠商販賣模型玩具的獲利神器,導致許多巨大機器人動畫作品一味強調機器人造型帥氣而不注重劇情內涵,被譏為「為了販賣玩具所製作的 30 分鐘廣告片」,不過由於出資者只要求「機器人玩具賣得好」,對於內容不太有興趣干涉,反而讓創作者有揮灑的空間,出現了「長濱忠夫三部曲」、「機動戰士鋼彈」等名作。1995 年的「新世紀福音戰士」,把前述「人類與機器合為一體」的概念推到極致,駕駛員是透過神經系統直接與機器人(稱為 Evangelion,簡稱 EVA )「同調」連結,以精神力取代操縱桿與按鈕,直接操控 EVA——不過其實 EVA 與其說是機器人,「生化」味更重一些,劇中還曾出現駕駛員與 EVA 機體「完全融合」的情節。

Evangelion GIF - Find & Share on GIPHY
EVA 與其說是機器人,「生化」味更重一些,劇中還曾出現駕駛員與 EVA 機體「完全融合」的情節。圖/Giphy

四、機械化的人類——人與機器的關係,除了「機器→人形機器→機器人→人」這條路線外,也有反方向的路徑:由於疾病或受傷而失去部分身體功能的人,利用科技的力量改造身體,恢復正常的功能,甚至更為強大,這種被部分改造的人類稱為「改造人 Cyborg」(cybernetic organism),結合了「模控學」與「有機體」兩個字,也有人翻譯為「生化電子人」、「半機械人」,後來乾脆直接音譯為「賽伯格」。其實許多現實世界的人類已經多多少少變成改造人了:義肢、人工水晶體、心律調節器、人工關節等等,人們已經普遍可以接受為了維持身體機能以侵入性的方式改造部分器官,未來可以預見改造的範圍與精密程度必定會逐漸提升。

在這個「人體改造」的延長線上,我們可以看到像「機器戰警」中,殉職的員警被改造並且復活來執行正義,「鋼鐵人」受傷後在自己的胸腔裝了一個反應爐,成為裝甲動力服的能量來源;日系作品方面,有「無敵金剛 009」(後來改名為「人造人 009」,少了一股中二的氣勢)、「假面騎士系列」(真人演出的特攝片),這些作品中,並非前述因為疾病或受傷而修補人體,而是為了培養「征服世界用的超級士兵」,而將人體改造成具有超越一般人能力的戰鬥道具。

與「機器人覺醒為人類、或自覺為超越人類的存在」的方向相反,在「改造人」這條線上會出現的問題則是「當人類持續被改造,被機械取代的部位越來越多,會不會因此變成『不是人類』?這個轉變的界線何在?」也是非常值得探討的問題,也讓「改造人」這類的作品更具有思想上的深度。

近年來日本動漫畫與好萊塢合流的作品逐漸增加,「攻殼機動隊」與「戰鬥天使艾莉塔」是其中翹楚,都是以「改造人與人類的分界線」,以日本原創的動漫畫作品為主題,結合好萊塢的資金與技術的大製作電影,都獲得了相當程度的成功。

交會

本文以包含小說、電影、動漫畫等科幻作品的角度來看「機器人與人」之間的關係。雖然不是從真實世界的科學與技術來進行嚴謹的探討,不過在「機器人與人」這個主題上,科技與科幻的發展路徑其實亦步亦趨、互為因果:如同艾西莫夫的「機器人學」與「機器人三定律」對真實世界的機器人科技有極大的影響一般,科幻的想像有可能成為引導科技發展的路標;相對的,科技的發展當然也會墊高科幻作品的根基。

前文我們看過了幾種「機器人與人」的類型作品:從機器人變成人、機器人與人共存、機器人與人合體、從人變成機器人。這幾種模式,各自以不同的視角來刺激我們思考「人到底是什麼」這個問題。從數十年來這個主題的科幻作品的發展看來,不論是從哪個角度切入,最後都指向一個共同的交會點:人類的大腦。

數十年來這個主題的科幻作品的發展看來,不論是從哪個角度切入,最後都指向一個共同的交會點:人類的大腦。 圖/Pixabay

「正子人」中的機器人主角「安德魯‧馬丁」要爭取在法律上被認可為「人」,其起點是他的「正子腦」產生了類似人腦的感情、創造力、以及自我意識的自覺,在其兩百年的生涯中,他的「鉑銥合金正子腦」的運作模式與人腦越來越接近,應該可以通過任何像「圖靈測試」這種「能分辨人腦與電腦差別」的考驗。而他克服爭取成為「人」的最後阻礙的方式是:改造他那相對於人腦幾乎算是不朽的正子腦,讓它像人腦般會逐漸老化與死亡,終於取得了「人」的資格。

另一方面,「從人變成機器人」的這條路上,也是以「大腦是不是原裝貨」來作為人類與機械的分界點。身上的器官怎麼更換都沒關係,但是這個人的「自我」(identity)只存在於大腦的神經元之間的連結以及在內部儲存以及傳送的資訊中,如果大腦被換掉、或是內部的資訊消失了,這個人也將不再存在。更激進的說法是,連大腦的「硬體」都不重要,只有內含的資訊才是「人的本體」,所以只要能夠把腦內的資訊保留、複製下來,人將可以成為不朽的存在,就像「攻殼機動隊」的主角草薙素子,拋棄了已經多次改造的肉身,以及還是「原裝」的大腦,將腦內資訊轉進網路中,只要這個網路仍在運作,這組來自草薙素子大腦的資訊仍存在於這個網路中,她就相當於取得了永生。

回到現實世界,「人工智慧」與「腦科學」正好也是目前最熱門、進展也最快的科技領域,前者致力於「讓機器除了強大的計算與記憶能力之外,還能像人腦一樣能進行複雜的思考」,後者則是要「瞭解大腦如何學習、記憶、創造,以及人類的自我意識從何而來」,這兩個領域發展的進程與細節跟科幻作品當然不會一模一樣,但是在大方向上,「科學」與「科幻」實在有驚人的相似之處,最後兩個領域也有可能交會在同一點上。

看看社群網站的自動審查機制,以及電子商務網站的推薦系統,極權國家用來監控人民的社會科技體系,「不具人形的機器人」正逐漸接管我們的生活。也許在我們的有生之年,就可以看到這些科幻名作中的情節在現實世界中發生,至於人與機器人之間的關係,是對抗、共生、還是融合?人類社會未來的流向,仍然掌握在人類手上嗎?再不嚴肅思考這個問題,或許很快就會來不及了。

文章難易度
所有討論 4
再・創世 Cybernetic_96
11 篇文章 ・ 27 位粉絲
由策展人沈伯丞籌畫之藝術計畫《再・創世 Cybernetic》,嘗試從演化控制學的理論基礎上,探討仿生學、人工智慧、嵌合體與賽伯格以及環境控制學等新知識技術所構成的未來生命圖像。

0

2
0

文字

分享

0
2
0
人造腦挑戰 AI!培養皿中的腦組織+腦機介面能打敗電腦嗎?
PanSci_96
・2023/05/27 ・3178字 ・閱讀時間約 6 分鐘

2023 年 2 月底, 約翰霍普金斯大學教授 Thomas Hartung 帶領研究團隊,發表了「類器官智慧」(Organoid intelligence , OI)的研究成果,希望利用腦類器官加上腦機介面,打造全新的生物計算技術。

我們終於要製造人工大腦了嗎?OI 和 AI,誰會成為未來主宰?

類器官智慧 OI 是什麼?目標為何?

2023 年的現在,AI 就已展現了不少驚人的實際成果;相較之下, OI 仍只是一個剛起步的計畫,甚至連名稱都與 2018 年美國《自然—物理學》期刊專欄作家、物理學家布坎南以 Organoids of intelligence 作為標題的文章幾乎一樣。

類器官智慧、Organoid intelligence、OI 是個很新的跨領域名詞,同時結合了「腦類器官」和「腦機介面」兩個領域的技術。

簡單來說,腦類器官就是指透過培養或誘導多能幹細胞(iPSCs),在模擬體內環境的旋轉生物反應器中,產生的腦組織。這項聽起來好像只會出現在科幻電影裡的技術,確實已經存在。

最早的腦類器官是在 2007 年,日本 RIKEN 腦研究所的笹井芳樹和渡辺毅一的研究團隊,成功從人類胚胎幹細胞培養出前腦組織。第一個具有不同腦區的 3D 腦類器官則是發表在 2013 年的《Nature》期刊,由奧地利分子技術研究所的尤爾根.科布利希和瑪德琳.蘭開斯特研究團隊成功建立。

腦類器官的出現,在生物與醫學研究中有重大意義,這代表未來科學家們若需要進行大腦相關的研究,再也不用犧牲實驗動物或解剖大體老師來取得人類大腦,只需要在培養皿就製造出我們要的大腦即可。

儘管培養皿上的組織確實是大腦組織,但不論是在大小、功能,以及解剖構造上,至今的結果仍遠遠不及我們自然發育形成的大腦。因此要達到 OI 所需要的「智慧水準」,我們必須擴大現有的腦類器官,讓他成為一個更複雜、更耐久的 3D 結構。

要達到 OI 所需的「智慧水準」,必須擴大現有的腦類器官,成為一個更複雜的 3D 結構。圖/GIPHY

而這個大腦也必須含有與學習有關的細胞和基因,並讓這些細胞和 AI 以及機器學習系統相連接。透過新的模型、演算法以及腦機介面技術,最終我們將能了解腦類器官是如何學習、計算、處理,以及儲存。

OI 是 AI 的一種嗎?

OI 能不能算是 AI 的一種呢?可說是,也不是。

AI 的 A 指的是 Artificial,原則上只要是人為製造的智慧,都可以稱為 AI。OI 是透過人為培養的生物神經細胞所產生的智慧,所以可以說 OI 算是 AI 的一種。

但有一派的人不這麼認為。由於目前 AI 的開發都是透過數位電腦,因此普遍將 AI 看做數位電腦產生的智慧—— AI 和 OI 就好比數位對上生物,電腦對上人腦。

OI 有機會取代 AI ?它的優勢是什麼?

至於為何電腦運算的準確度和運算速度遠遠高於人腦,最主要原因是電腦的設計具有目的性,就是要做快速且準確的線性運算。反之,大腦神經迴路是網狀、活的連結。

人類本身的基因組成以及每天接收的環境刺激,不斷地改變著大腦,每一分每一秒,我們的神經迴路都和之前的狀態不一樣,所以即使就單一的運算速度比不上電腦,但人腦卻有著更高學習的效率、可延展性和能源使用效率。在學習一個相同的新任務時,電腦甚至需要消耗比人類多 100 億倍的能量才能完成。

神經網路接受著不同刺激。圖/GIPHY

這樣看來,至少 OI 在硬體的效率與耗能上有著更高優勢,若能結合 AI 與 OI 優點,把 AI 的軟體搭載到 OI 的硬體上,打造完美的運算系統似乎不是夢想。

但是 OI 的發展已經到達哪裡,我們還離這目標多遠呢?

OI 可能面臨的阻礙及目前的發展

去年底,澳洲腦科學公司 Cortical Labs 的布雷特.卡根(Brett Kagan)帶領研究團隊,做出了會玩古早電子遊戲《乓》(Pong)的培養皿大腦—— DishBrain。這個由 80 萬個細胞組成,與熊蜂腦神經元數量相近的 DishBrain,對比於傳統的 AI 需要花超過 90 分鐘才能學會,它在短短 5 分鐘內就能掌握玩法,能量的消耗也較少。

現階段約翰霍普金斯動物替代中心等機構,其實只能生產出直徑大小約 500 微米,也就是大約一粒鹽巴大小的尺寸的腦類器官。當然,這樣的大小就含有約 10 萬個細胞數目,已經非常驚人。雖然有其他研究團隊已能透過超過 1 年的培養時間做出直徑 3~5 毫米的腦類器官,但離目標細胞數目 1000 萬的腦類器官還有一段距離。

為了實現 OI 的目標,培養更大的 3D 腦類器官是首要任務。

OI 的改良及多方整合

腦類器官畢竟還是個生物組織,卻不像生物大腦有著血管系統,能進行氧氣、養分、生長因子的灌流並移除代謝的廢物,因此還需要有更完善的微流體灌流系統來支持腦類器官樣本的擴展性和長期穩定狀態。

在培養完成腦類器官以及確定能使其長期存活後,最重要的就是進行腦器官訊息輸入以及反應輸出的數據分析,如此我們才能得知腦類器官如何進行生物計算。

受到腦波圖(EEG)紀錄的啟發,研究團隊將研發專屬腦類器官的 3D 微電極陣列(MEA),如此能以類似頭戴腦波電極帽的方式,把整個腦類器官用具彈性且柔軟的外殼包覆,並用高解析度和高信噪比的方式進行大規模表面刺激與紀錄。

研究團隊受腦波圖(EEG)紀錄的啟發。圖/Envato Elements

若想要進一步更透徹地分析腦類器官的訊號,表面紀錄是遠遠不夠的。因此,傷害最小化的的侵入式紀錄來獲取更高解析度的電生理訊號是非常重要的。研究團隊將使用專門為活體實驗動物使用的矽探針Neuropixels,進一步改良成類腦器官專用且能靈活使用的裝置。

正所謂取長補短,欲成就 OI,AI 的使用和貢獻一點也不可少。

下一步,團隊會將進行腦機介面,在這邊植入的腦則不再是人類大腦,而是腦類器官。透過 AI 以及機器學習來找到腦類器官是如何形成學習記憶,產生智慧。過程中由於數據資料將會非常的龐大,大數據的分析也是無可避免。

隨著 AI 快速發展的趨勢,OI 的網路聲量提升不少,或許將有機會獲得更多的關注與研究補助經費,加速研究進度。更有趣的是,不僅有一批人希望讓 AI 更像人腦,也有另一批人想要讓 OI 更像電腦。

生物、機械與 AI 的界線似乎會變得越來越模糊。

OI=創造「生命」?

生物、機械與 AI 的界線越來越模糊。圖/Envato Elements

講到這裡,不免讓人擔心,若有一天 OI 真的產生智慧,我們是否就等於憑空創造出了某種「生命」?這勢必將引發複雜的道德倫理問題。

雖然研究團隊也強調, OI 的目標並不是重新創造人類的意識,而是研究與學習、認知和計算相關的功能,但「意識究竟是什麼」,這個哲學思辨至今都還未有結論。

到底懂得「學習」、「計算」的有機體能算是有意識嗎?如果將視覺腦機介面裝在 OI 上,它是否會發現自己是受困於培養皿上,被科學家們宰割的生物計算機?

不過這些問題不僅僅是 OI 該擔心的問題,隨著人工智慧的發展,GPT、Bing 和其他由矽構成的金屬智慧,隨著通過一個又一個智力、能力測試,也終將面臨相應的哲學與倫理問題。

最後,Neuralink 的執行長馬斯克說過(對,又是他 XD),人類要不被 AI 拋下,或許就得靠生物晶片、生物技術來強化自己。面對現在人工智慧、機械改造、生物晶片各種選擇擺在眼前,未來你想以什麼樣的型態生活呢?

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

0

2
1

文字

分享

0
2
1
從遺傳基因能發現人類起源?在我們 DNA 上銘刻的故事!——《我們源自何方?》
馬可孛羅_96
・2023/03/17 ・2580字 ・閱讀時間約 5 分鐘

遺傳基因如何記錄歷史

要理解遺傳學為何能協助我們探究人類的過去,必須了解基因組(我們由雙親繼承來的所有遺傳密碼)如何紀錄資訊。

一九五三年,法蘭西斯.克里克(Francis Crick)、羅莎琳.富蘭克林(Rosalind Franklin)、詹姆斯.華生(James Watson)和莫利斯.威爾金斯(Maurice Wilkins)證明,基因組是由大約三十億個化學構件組成的雙長鏈(總共有六十億個單元)。

我們可以把這些構件想成字母,包括腺嘌呤(adenine,A)、胞嘧啶(cytosine,C)、鳥糞嘌呤(guanine,G)和胸腺嘧啶(thymine,T)1。我們所謂的「基因」是由一段段短鏈組成,每段的長度通常是一千個字母左右。

基因的功能是模板,用來合成執行細胞內各項工作的蛋白質。基因之間是非編碼 DNA ,有時稱為垃圾 DNA (junk DNA)。在 DNA 片段上進行化學反應的機器能讀取這些字母指令,在反應沿 DNA 序列行進時放射閃光。

A、C、G、T 等字母進行化學反應時放射的色彩各不相同,所以字母序列能用攝影機掃描後輸入到電腦。

  

現代人演化年表。圖/《我們源自何方?》

絕大多數科學家只留意基因包含的生物訊息,但 DNA 序列之間偶爾也會有些差異。這些差異源自基因組過去複製時出現在某些時刻的隨機誤差(稱為突變〔mutation〕)。這些差異的發生機率大約是一千分之一,基因和垃圾 DNA 都可能出現。遺傳學家探究過去時要研究的正是這些差異。

在這大約三十億個字母中,無關的基因組之間通常有大約三百萬個差異。兩個基因組的片段之間差異密度越高,這兩個片段的共同祖先年代就越久遠,因為突變隨時間增加的速率大約是固定的。所以差異密度就像生物碼表,紀錄了以往發生的重要事件距離現在大約多久。

基因組序列差異/《我們源自何方?》

粒線體夏娃

透過遺傳學研究過往,最令人驚奇的應用途徑是粒線體 DNA 。粒線體 DNA 是基因組中非常微小的一部分(大約只有二十萬分之一),透過母親、女兒和孫女等母系親屬代代相傳。一九八七年,艾倫.威爾森(Allan Wilson)等人採集世界各地多個人種的粒線體 DNA ,定序出數百個字母。他們比較這些序列之間的突變差異,建構母系親屬系統樹。

他們發現,系統樹中最長的分支(也就是最早脫離主幹的分支)現在只出現在撒哈拉以南的非洲人後裔身上,表示現代人的祖先生活在非洲。相反地,現在非洲以外的人全都源自系統樹中年代較晚的分支。

依據一九八○和一九九○年代發現的考古、遺傳和骨骼證據下提出的主流整合結果中,這項發現成為十分重要的部分,支持現代人的祖先數十萬年前曾經生活在非洲的理論。

威爾森等人依據突變累積速率,估算出所有分支的共同祖先中,距離現在最近的粒線體夏娃(Mitochondrial Eve)大約生活在二十萬年前。目前最可靠的估計年代是十六萬年前左右,但我們必須了解,這個數據和大多數遺傳年代一樣不大精確,因為人類突變的實際發生速率並不確定。

科學家藉由基因突變率估計人類共同的祖先約出現在二十萬年前。圖/envatoelements

共同祖先年代距離現在如此之近,相當令人興奮,因為這打破了多區域說(multiregional hypothesis)。根據這個假說,生活在非洲和歐亞大陸許多地區的現代人類大多源自直立人(Homo erectus)早年的擴散(距今至少一百八十萬年)。直立人能製作粗糙的石造工具,腦容量大約是現代人類的三分之二。

多區域說則指出,直立人的後代在非洲和歐亞大陸各地分別演化,形成現在生活在相同地區的族群,因此多區域說預測,現代人類身上有些粒線體 DNA 序列在兩百萬年前左右分化開來,也正是直立人擴散的年代。

人類擴散與文化演變

然而,遺傳資料完全不吻合這個預測。所有現代人類的共同粒線體 DNA 祖先距今只有兩百萬年的十分之一,代表現在的人類大多源自年代晚近許多的擴散,從非洲前往世界各地。

人類學證據指出當時可能的狀況。最古老的「解剖上具有現代人類相同特徵」的人類骨骼(也就是在球狀顱骨和其他表徵方面位於所有現代人類的變異範圍內)年代約為二十∼三十萬年前,而且全部出自非洲。但在非洲和近東地區外,解剖學上的現代人目前還沒有年代早於十萬年前的可信證據,年代早於五萬年前的證據也相當有限。

石造工具種類的考古證據也指出五萬年前開始出現重大改變,西歐亞大陸考古學家稱這個時期為舊石器時代晚期(Upper Paleolithic),非洲考古學家則稱之為石器時代晚期(Later Stone Age)。

這段時期之後,製造石造工具的技術大幅躍進,此後每幾千年改變風格一次,改變步調比冰河還慢。這段時期的人類也開始留下更多展現美學與精神生活的文物:鴕鳥蛋殼串珠、拋光的石質手鐲、以紅色氧化鐵製作的身體塗料,以及全世界最早的具象藝術。

目前已知全世界最古老的小雕像是長毛象牙刻成的獅子人(lionman)雕像,發現於德國的霍倫斯坦—施泰德洞穴(Hohlenstein-Stadel),年代約為四萬年前。法國蕭維岩洞(Chauvet Cave)中的前冰川時期動物畫的年代約為三萬年前,現在仍被認為是傑出的藝術作品。

尼安德塔的骨骼。圖/wikipedia

從大約五萬年前開始,考古紀錄變化大幅加快,同時也反映在族群變化上。尼安德塔人大約四十萬年前出現在歐洲,由於骨骼形狀不在現代人類變異範圍內,所以被視為「古代」人類,於四萬一千年∼三萬九千年前在西歐滅絕,此時現代人類到達西歐只有數千年。

歐亞大陸其他地方也有族群反轉現象,非洲南部也是如此,證據包括某些地點遭到棄置以及石器時代晚期文化突然出現。

這些變化最自然的解釋是解剖上具有現代人類相同特徵的某個人類族群擴散,這個族群的祖先包括擁有先進新文化的「粒線體夏娃」,並且取代了原先居住在這些地方的人類。

——本文摘自《我們源自何方?:古代DNA革命解構人類的起源與未來》,2023 年 3 月,馬可孛羅出版,未經同意請勿轉載。

馬可孛羅_96
25 篇文章 ・ 19 位粉絲
馬可孛羅文化為台灣「城邦文化出版集團」的一個品牌,成立於1998年,經營的書系多元,包含旅行文學、探險經典、文史、社科、文學小說,以及本土華文作品,期望為全球中文讀者提供一個更開闊、可以縱橫古今、和全世界對話的新閱讀空間。

1

1
0

文字

分享

1
1
0
AI 也會出差錯?使用人工智慧可能帶來的倫理與風險——《科學月刊》
科學月刊_96
・2023/02/19 ・3976字 ・閱讀時間約 8 分鐘

  • 甘偵蓉|清華大學人文社會 AI 應用與發展研究中心博士後研究學者。

Take Home Message

  • Facebook 或 Instagram 的訊息推薦、YouTube 或 Netflix 推薦觀賞影片、掃瞄臉部以解鎖手機,AI 應用早已在我們日常生活中隨處可見。
  • AI 應用中四種常見的倫理和風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。
  • 近年來各國家皆制訂有關 AI 發展的規範,臺灣則在 2019 年制訂「AI 科研發展指引」,期望能改善 AI 發展帶來的問題與風險。

當談到人工智慧(artificial intelligence, AI)、也就是 AI 時,讀者會想到什麼?是多年前由史匹柏(Steven Spielberg)導演的那部《A.I. 人工智慧》(A.I. Artificial Intelligence)中那個一直盼不到人類母愛而令人心碎的機器人小男孩?還是由史密斯(Will Smith)主演的《機械公敵》(I, Robot)裡那些沒遵守機器人三大法則的機器人或中央系統?

《A.I. 人工智慧》(A.I. Artificial Intelligence)電影海報,上映於 2001 年。圖/IMDb

或許未來有一天,人類真的可以設計出如電影中那些像人一樣的 AI 系統或機器人。但目前為止,你常聽到的 AI 其實既很厲害又很不厲害,為什麼呢?厲害的是它下圍棋可贏過世界冠軍,還能夠比放射科技師更快、更準確地辨識 X 光片中疑似病變的細胞;但它不厲害的是,很會下圍棋的 AI 就只能下圍棋,別說不會打牌,連撲克牌是什麼都不知道!而且每次學新事物幾乎都是打掉重練,得不斷做好多考古題才有可能學得會,不像人類通常教幾次就會舉一反三。

不過,即使目前世界上的 AI 都是這種只具備特定功能的「弱 AI」(artificial narrow intelligence, ANI),但已經為這個世界帶來相當大的進步與便利。所以,以下要談的就是 ANI 的倫理與風險。

談到這種只具特定功能的 ANI,讀者知道目前生活周遭有哪些事物有利用 AI 技術嗎?其實 Google 上的搜尋資訊、Facebook 或 Instagram 的訊息推薦、對智慧型手機喊「Siri 現在外面有下雨嗎?」等功能,或是以掃瞄臉部解鎖手機與進入大樓、YouTube 或 Netflix 推薦觀賞影片,甚至是投履歷求職、銀行審核貸款申請等都常用到 AI 技術,它早在我們日常生活中隨處可見。

AI 技術在日常生活中隨處可見,如 YouTube 推薦觀看影片。圖/Pexels

但也正是如此,讓人們這幾年在使用 AI 時,逐漸發現它可能造成的問題或傷害,以下簡單介紹常見的四種AI應用可能造成的倫理問題或風險。

演算法偏誤

第一種是演算法偏誤(algorithmic bias)。什麼是演算法偏誤?簡單來說就是 AI 在某些群體的判斷準確率或預測結果上總是很差,導致結果可能對於此群體造成系統性的不利。但為何會造成演算法偏誤?常見原因有三項。

第一項原因是,建立 AI 模型的研究資料集有偏誤,在性別、種族、社經地位等特徵上,沒有真實世界的人口分布代表性。例如數位裝置採用 AI 臉部辨識技術解鎖,原本是希望保護個人使用數位裝置的安全性,結果皮膚深的人卻常常遇到辨識失敗而無法解鎖。這通常是因為目前許多 AI 模型都是以機器學習技術設計,而機器學習的主要特性就是從過去人類留下的大量資料中學習;當初提供電腦學習臉部辨識的圖片時,如果多數都是白皮膚而非黑皮膚、多數都是男性的臉而非女性的臉,那麼電腦在學習辨識人臉的準確率上,整體而言辨識男性白人就會比辨識女性黑人要高出許多。

第二項產生演算法偏誤的原因是建立 AI 模型的研究資料集不只有偏誤,還反映現實社會中的性別、種族、社經地位等歧視;例如美國警政單位以過往犯罪資料訓練出獄後犯人再犯風險評估的 AI 模型,那些資料不意外地有色人種的犯罪紀錄遠多於白人犯罪紀錄。然而,那些紀錄也反映美國社會長久以來對於有色人種的歧視,其中包含警察對於有色人種的盤查比例遠高於白人、法院對於有色人種的定罪比例及判刑嚴重程度也遠高於白人、警力通常被派往多黑人與拉丁裔人種居住的窮困社區盤查等。所以根據過往犯罪資料所訓練出來的 AI 模型,不意外地也就會預測有色人種的再犯機率普遍來說比白人高。

第三項產生演算法偏誤的原因則是 AI 學會了連系統開發者都沒有察覺到,潛藏在資料裡的偏誤。例如科技公司人資部門本來想借助 AI 更有效率地篩選出適合來面試的履歷,所以挑選在該公司任職一定年資且曾升遷二次的員工履歷來訓練 AI 模型。問題是,高科技公司向來男多女少,所提供給 AI 學習的資料自然就男女比例相當不均。AI 也就學會了凡是出現偏向女性名字、嗜好、畢業學校系所等文字的履歷,平均所給的評分都比出現偏向男性等相關文字的履歷還低。

潛藏在資料裡的偏誤造成 AI 預測結果彷彿帶有性別歧視。圖/Envato Elements

但目前科技公司陽盛陰衰,是受到以往鼓勵男性就讀理工、女性就讀人文科系,或男性在外工作女性在家帶小孩等性別刻板偏見所影響。所以 20~30 年來許多人做出各種努力以消除這種性別刻板偏見所帶來的不良影響,政府也努力制定各種政策來消除這種不當的性別偏見,像是求才廣告基本上不能限定性別、公司聘雇員工應該達到一定的性別比例等。因此,訓練 AI 的研究資料一旦隱藏類似前述性別比例不均的現象,訓練出來的 AI 預測結果就彷彿帶有性別歧視,讓人們過往致力消除性別不平等的各種努力都白費了!

其他 AI 應用帶來的倫理與風險

除了演算法偏誤的問題外,第二種可能帶來的倫理問題或風險是 AI 技術已經偏離原先使用目的,例如深偽技術(deepfake)原本用來解決圖片資料量不夠的問題,後來卻被利用在偽造名人性愛影片等。

第三種則是有些 AI 技術或產品本身就可能有善惡兩種用途(dual-use)。例如 AI 人臉辨識技術可用在保護數位裝置的使用者或大樓保全,但也可用來窺探或監控特定個人;無人機可以在農業上幫助農夫播種,但也可作為自動殺人武器;可用來搜尋如何產生毒性最少的藥物合成演算法,也能反過來成為搜尋如何產生毒性最強的藥物合成演算法。

最後,第四種是演算法設計不良或現有技術限制所導致的問題。在演算法設計不良方面,例如下棋機器人手臂可能因為沒有設計施力回饋或移動受阻暫停等防呆裝置,而造成誤抓人類棋手的手指且弄斷的意外。在現有技術限制方面,道路駕駛的交通標誌在現實中可能時常有老舊或髒汙的情況,儘管對於人類駕駛來說可能不影響判讀,但對於自駕車來說很可能就因此會嚴重誤判,例如無法正確辨識禁止通行標誌而繼續行駛,或是將速限 35 公里誤判成 85 公里等。但前述情況也有可能是自駕車網路、控制權限或物件辨識模型受到惡意攻擊所致。

以上介紹了 AI 常見的四種倫理問題或風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。但人們該如何減少這些倫理問題與風險呢?

培養AI使用倫理與風險的敏銳度

近五、六年來國際組織如聯合國教育科學及文化組織(United Nations Educational, Scientific and Cultural Organization, UNESCO)、歐盟(European Union, EU)、電機電子工程師學會(Institute of Electrical and Electronics Engineers, IEEE)或是國家、國際非營利組織皆紛紛制訂有關 AI 發展的白皮書或倫理指引(ethical guidelines),甚至逐漸朝向法律治理的方向,如歐盟的人工智慧規則草案等。儘管這些文件所提出的倫理價值、原則或行為規範,看似各有不同,但經過這些年的討論與摸索,也逐漸匯聚出一些共識。

「人工智慧科研發展指引」提出三項倫理價值,包含以人為本、永續發展、多元包容。圖/Pexels

臺灣相較於前述國際文件來說,在制訂的時間上比較晚。2019 年由當時的科技部(現改為國科會)制訂「人工智慧科研發展指引」,裡面提出的三項倫理價值以及八項行為指引,基本上涵蓋了前述各種國際 AI 發展指引文件最常提及的內容。所謂三項倫理價值包含以人為本、永續發展、多元包容,行為指引則有共榮共利、安全性、問責與溝通、自主權與控制權、透明性與可追溯性、可解釋性、個人隱私與數據治理、公平性與非歧視性共八項。

未來當讀者看到又出現哪些 AI 新技術或產品時,不妨試著評估看看是否有符合這三項價值及八項行為指引。若沒有,究竟是哪項不符合?不符合的原因是上述所介紹常見的四種倫理問題或風險的哪一種?若都不是,還有哪些倫理問題或風險過去被忽略了但值得重視?

AI 技術發展日新月進,在日常生活中的應用也愈來愈廣。但考量法律條文有強制性,在制訂時必須相當謹慎,免得動輒得咎,也很可能在不清楚狀況下反而制訂了不當阻礙創新發展的條文;再加上法律制定也必須有一定的穩定性,不能朝令夕改,否則會讓遵守法規者無所適從。因此可以想見,法令規範趕不上新興科技所帶來的問題與風險本來就是常態,而非遇到 AI 科技才有這種情況。

人們若能培養自身對於 AI 倫理問題或風險的敏銳度,便可發揮公民監督或協助政府監督的力量,評估 AI 開發或使用者有無善盡避免傷害特定個人或群體之嫌,逐漸改善 AI 開發者與大眾媒體常過度誇大 AI 功能,但對於可能帶來的倫理問題或風險卻常閃爍其詞或避而不談的不好現象。

本文感謝工業技術研究院產業科技國際策略發展所支持。

  • 〈本文選自《科學月刊》2023 年 2 月號〉
  • 科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。
所有討論 1
科學月刊_96
239 篇文章 ・ 2724 位粉絲
非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。