0

0
0

文字

分享

0
0
0

我們與《魔鬼終結者》的距離,AI 真的會成為人類的威脅嗎?

鳥苷三磷酸 (PanSci Promo)_96
・2019/11/01 ・3183字 ・閱讀時間約 6 分鐘 ・SR值 557 ・八年級

本文由 Fox Movies 委託,泛科學企劃執行

  • 文/火星軍情局

《魔鬼終結者》第一集問世至今已經 35 年,即使阿諾 T-800 的肌肉不復以往,革命之母莎拉康納也升等為革命祖母,卻還要在即將上映的《魔鬼終結者:黑暗宿命》裡繼續為人類的生存戰鬥,看來在魔鬼終結者宇宙裡的人工智慧「天網」是不會這麼容易被打敗的,續集還有得演下去了。

回到現實,魔鬼終結者的世界會成為我們的未來嗎?一起來看看電影裡有哪些威脅是人類真正該擔心的吧!

伴隨我們許久的《魔鬼終結者》,革命之母莎拉康納也升等為「革命祖母」,故事依然和人工智慧征戰(互相轟炸)不止。圖/《魔鬼終結者:黑暗宿命》劇照

可能威脅一:覺醒的AI會試圖消滅人類?「天網」可能出現嗎?

在《魔鬼終結者》裡,「天網」是美軍研發的超級電腦,可控制美軍的自動化武器系統,並透過人工智慧來制敵機先。想不到它啟動不久就自行發展出自我意識,領悟到人類才是它的真正威脅,而發動核戰消滅人類。在人工智慧開始蓬勃發展的現在,我們該開始擔心哪一天這世界會被像天網的人工智慧給毀滅嗎?

目前的人工智慧是只能處理單一的問題「弱人工智慧」,說穿了就是讓電腦從大量數據中歸納出統計上的規律,與「人工意識」沒有關係。像是 2016 年非常火熱的 Alpha Go 就屬於此類:它雖然能夠擊敗世界第一的圍棋高手,但離開了棋盤它就什麼也不是。這類的弱人工智慧還包括我們生活中時常可以看見的某些資訊應用,包括 Youtube 網站上的推薦影片、Google Map 的路線規劃。但可想而見,這些只能提供特定服務的程式,與我們期待會與人們互動討論的「智慧」還差得很遠。

雖然現在有的機器在與人互動時能展現出個性和意識,但那並不是真的意識,像是會和使用者抬槓的蘋果 iOS 系統智慧助理 Siri,雖然它會在你問出某些問題時給出「有個性」的解答,但這仍然是基於工程師的設定。目前能展現出個性與意識的人機互動,基本上都是透過設定讓它表現得「讓人覺得」它有意識。

Siri有些回答真的很有個性啊!

「天網」這種領悟到自身存在、要保護自我、會分析未來、甚至推翻創造者交付的任務,這都是有處理通用問題的「強人工智慧」(Strong AI)才具備的能力,今天的人工智慧技術還差得遠。而且即使有強人工智慧的運算能力的電腦也未必能自行產生「意識」。1

人工智慧學者們多認為機器終將獲得意識,但什麼時候來?每個人的看法不一。未來大師 Ray Kurzweil 曾預測這一天會在2029年來臨2,有人說這預測太過樂觀,還有其他大師級的人物說這是八字沒一撇的事。有AI教父之稱的Yoshua Bengio在最近BBC的專訪中說:「或許人工意識違反了目前未知的基本理論,根本無法達到。」3

傷腦筋,到底該聽誰的?若你很好學、試著自己到Google Scholar去找「artificial consciousness」的相關資料,就可以看出這個領域還停在基礎數學的定義和哲學道德的探討,並沒有人真的在動手做人工意識,很難相信在可預見的未來「天網」會成真。

威脅程度:輕微。

可能威脅二:人工智慧當殺手,殺手機器人即將誕生?

SpaceX和 Tesla的創辦人伊隆·馬斯克 (Elon Musk) 曾說:「人工智慧武器比核武更具革命性,更可怕。」還記得 2 年前他曾經與一百多位的 AI 專家簽署一封公開信,籲請聯合國禁止使用人工智慧的殺手機器人嗎?4那時候這封公開信得到全世界的共鳴,所以可怕的殺手機器人應該會被禁,未來世界很安全吧。

在世人眼中黑科技代表的SpaceX創辦人馬斯克也主張人工智慧不應武器化,可見其威脅程度了。

事實上聯合國沒在理睬,而且各國也各自悄悄地發展,把人工智慧加在陸、海、空、太空、和網路上的武力上,然後用「自動化防禦系統」之類的詞來沖淡AI的色彩。先不管天網那樣的科幻情節,現在馬上就會碰到的問題是:機器憑什麼決定誰該死?如何確定機器在瞬息萬變的戰場上不會出錯?但也有人認為由人工智慧操作武器反而更安全、精準,甚至可以承受對方先開火後再展開第二擊,而且就算機器會出錯,也比20來歲緊張的新兵好吧。5

你覺得人工智慧武器化是不道德的嗎?那麼請你心裡想一個你心目中的「敵國」,請問那個國家可不可能正在發展人工智慧武器?如果是,那你能忍受未來自己的國家因為道德上的堅持而在戰場上被吊打嗎?正因每個國家都這麼想,所以人工智慧武器化變成一個無法阻擋的潮流。


波士頓動力機器人的設計很接近人形,並且有相當不錯的適應地形能力。

這些武器的外型會像魔鬼終結者那樣的人形機器人嗎?是有可能的。人形機器人的優點就是能立刻融入人類的環境:上下樓梯、操作武器與工具、開車,大家熟知的波士頓動力機器人 (Boston Dynamics) 就是因此致力於人形機器人的發展,而俄國的機器人 Fedor 更曾光明正大地在媒體前開槍打靶。對了,兩個月前俄國還送了一台 Fedor 上了國際太空站喔,只有我覺得這是科幻恐怖片的前奏嗎?

智慧型的武器也未必要人型,甚至不一定要有形體,最可怕的人工智慧武器可能根本不需一槍一彈就可操控其他國家的政治、輿論和經濟,或許我們正在目睹這種人工智慧武器的演化過程。

威脅程度:高

可能威脅三:機器會毀滅世界、奴役人類?

既然剛才說短期內不會有電腦覺醒後立志殺滅人類,那就不會有機器毀滅世界或奴役人類這樣的事了吧──不見得,那要看我們怎麼定義「毀滅世界」。

人工智慧對人類未來最大的威脅,可能並不像《魔鬼終結者》那樣變成殺人機器人在路上到處打架?圖/《魔鬼終結者:黑暗宿命》劇照

如果毀滅是像「審判日」那樣的末世情景,那不至於;但如果我們放任人工智慧的發展,那人類有可能過著奴隸的生活。倒不是說是被機器奴役,而是人藉著人工智慧的優勢來奴役其他人

套一句知名深度學習研究者、於2018年得過圖靈獎的科學家 Yoshua Bengio 的話:「人工智慧主宰人類並不是問題,人如何誤用人工智慧才是問題。人工智慧會怎麼導致社會不均?會怎麼用來控制人民?會怎麼武器化?」3

從紀錄片《ALPHAGO》的海報設計,就可以看出人類對於人工智慧的隱隱不安。圖/IMDb

如果只有少數人能擁有昂貴的電腦運算,也就只有少數人能接觸快速且全面的資訊。當人工智慧的能力越來越大,這些少數人與其他人的差距就有了天壤之別;他們就好像有了全知全能的神力,讓他們累積更多資源來取得更大的能力。

舉個例子,如果有人工智慧版的高頻交易,不但可以預測股市走勢、甚至能有炒短線的能力,就算預測的時間差只有提早 0.1秒,他的主人仍可以在短時間內藉大量買賣而獲取暴利。其他還靠人腦的無辜股民們根本無法跟上他的速度,只能當韭菜被收割,老百姓的血汗積蓄就間接到了他們的口袋中,這在意義上就是奴役了。

你現在有沒有被機器統治的心理準備?

威脅程度:高

究竟人類的未來與人工智慧會是怎樣的關係?人工智慧是否會徹底改變、甚至摧毀人類的文明呢?我們只能耐心等繼續看下去了。

在此之前,《魔鬼終結者:黑暗宿命》即將於 11 月 7 日上映,可以先看看《魔鬼終結者系列》正宗第三集,體會一下人類與 AI 相愛相殺 (?)的動作片吧!

Reference

  1. Subhash Chandra Pandey. Can artificially intelligent agents really be conscious? |. Sādhanā. 2018;43.
  2. Goldman I by A. Ray Kurzweil Says We’re Going to Live Forever. The New York Times. 25 Jan 2013.
  3. Lee SS Dave. Terminator sends shudder across AI labs. BBC News. 25 Oct 2019.
  4. Gibbs S. Elon Musk leads 116 experts calling for outright ban of killer robots. The Guardian. 20 Aug 2017.
  5. Etzioni A, Etzioni O. Pros and cons of autonomous weapons systems. Military Review, May-June. 2017.

本文由 Fox Movie 委託,泛科學企劃執行

文章難易度
鳥苷三磷酸 (PanSci Promo)_96
163 篇文章 ・ 273 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

1

1
0

文字

分享

1
1
0
AI 也會出差錯?使用人工智慧可能帶來的倫理與風險——《科學月刊》
科學月刊_96
・2023/02/19 ・3976字 ・閱讀時間約 8 分鐘

  • 甘偵蓉|清華大學人文社會 AI 應用與發展研究中心博士後研究學者。

Take Home Message

  • Facebook 或 Instagram 的訊息推薦、YouTube 或 Netflix 推薦觀賞影片、掃瞄臉部以解鎖手機,AI 應用早已在我們日常生活中隨處可見。
  • AI 應用中四種常見的倫理和風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。
  • 近年來各國家皆制訂有關 AI 發展的規範,臺灣則在 2019 年制訂「AI 科研發展指引」,期望能改善 AI 發展帶來的問題與風險。

當談到人工智慧(artificial intelligence, AI)、也就是 AI 時,讀者會想到什麼?是多年前由史匹柏(Steven Spielberg)導演的那部《A.I. 人工智慧》(A.I. Artificial Intelligence)中那個一直盼不到人類母愛而令人心碎的機器人小男孩?還是由史密斯(Will Smith)主演的《機械公敵》(I, Robot)裡那些沒遵守機器人三大法則的機器人或中央系統?

《A.I. 人工智慧》(A.I. Artificial Intelligence)電影海報,上映於 2001 年。圖/IMDb

或許未來有一天,人類真的可以設計出如電影中那些像人一樣的 AI 系統或機器人。但目前為止,你常聽到的 AI 其實既很厲害又很不厲害,為什麼呢?厲害的是它下圍棋可贏過世界冠軍,還能夠比放射科技師更快、更準確地辨識 X 光片中疑似病變的細胞;但它不厲害的是,很會下圍棋的 AI 就只能下圍棋,別說不會打牌,連撲克牌是什麼都不知道!而且每次學新事物幾乎都是打掉重練,得不斷做好多考古題才有可能學得會,不像人類通常教幾次就會舉一反三。

不過,即使目前世界上的 AI 都是這種只具備特定功能的「弱 AI」(artificial narrow intelligence, ANI),但已經為這個世界帶來相當大的進步與便利。所以,以下要談的就是 ANI 的倫理與風險。

談到這種只具特定功能的 ANI,讀者知道目前生活周遭有哪些事物有利用 AI 技術嗎?其實 Google 上的搜尋資訊、Facebook 或 Instagram 的訊息推薦、對智慧型手機喊「Siri 現在外面有下雨嗎?」等功能,或是以掃瞄臉部解鎖手機與進入大樓、YouTube 或 Netflix 推薦觀賞影片,甚至是投履歷求職、銀行審核貸款申請等都常用到 AI 技術,它早在我們日常生活中隨處可見。

AI 技術在日常生活中隨處可見,如 YouTube 推薦觀看影片。圖/Pexels

但也正是如此,讓人們這幾年在使用 AI 時,逐漸發現它可能造成的問題或傷害,以下簡單介紹常見的四種AI應用可能造成的倫理問題或風險。

演算法偏誤

第一種是演算法偏誤(algorithmic bias)。什麼是演算法偏誤?簡單來說就是 AI 在某些群體的判斷準確率或預測結果上總是很差,導致結果可能對於此群體造成系統性的不利。但為何會造成演算法偏誤?常見原因有三項。

第一項原因是,建立 AI 模型的研究資料集有偏誤,在性別、種族、社經地位等特徵上,沒有真實世界的人口分布代表性。例如數位裝置採用 AI 臉部辨識技術解鎖,原本是希望保護個人使用數位裝置的安全性,結果皮膚深的人卻常常遇到辨識失敗而無法解鎖。這通常是因為目前許多 AI 模型都是以機器學習技術設計,而機器學習的主要特性就是從過去人類留下的大量資料中學習;當初提供電腦學習臉部辨識的圖片時,如果多數都是白皮膚而非黑皮膚、多數都是男性的臉而非女性的臉,那麼電腦在學習辨識人臉的準確率上,整體而言辨識男性白人就會比辨識女性黑人要高出許多。

第二項產生演算法偏誤的原因是建立 AI 模型的研究資料集不只有偏誤,還反映現實社會中的性別、種族、社經地位等歧視;例如美國警政單位以過往犯罪資料訓練出獄後犯人再犯風險評估的 AI 模型,那些資料不意外地有色人種的犯罪紀錄遠多於白人犯罪紀錄。然而,那些紀錄也反映美國社會長久以來對於有色人種的歧視,其中包含警察對於有色人種的盤查比例遠高於白人、法院對於有色人種的定罪比例及判刑嚴重程度也遠高於白人、警力通常被派往多黑人與拉丁裔人種居住的窮困社區盤查等。所以根據過往犯罪資料所訓練出來的 AI 模型,不意外地也就會預測有色人種的再犯機率普遍來說比白人高。

第三項產生演算法偏誤的原因則是 AI 學會了連系統開發者都沒有察覺到,潛藏在資料裡的偏誤。例如科技公司人資部門本來想借助 AI 更有效率地篩選出適合來面試的履歷,所以挑選在該公司任職一定年資且曾升遷二次的員工履歷來訓練 AI 模型。問題是,高科技公司向來男多女少,所提供給 AI 學習的資料自然就男女比例相當不均。AI 也就學會了凡是出現偏向女性名字、嗜好、畢業學校系所等文字的履歷,平均所給的評分都比出現偏向男性等相關文字的履歷還低。

潛藏在資料裡的偏誤造成 AI 預測結果彷彿帶有性別歧視。圖/Envato Elements

但目前科技公司陽盛陰衰,是受到以往鼓勵男性就讀理工、女性就讀人文科系,或男性在外工作女性在家帶小孩等性別刻板偏見所影響。所以 20~30 年來許多人做出各種努力以消除這種性別刻板偏見所帶來的不良影響,政府也努力制定各種政策來消除這種不當的性別偏見,像是求才廣告基本上不能限定性別、公司聘雇員工應該達到一定的性別比例等。因此,訓練 AI 的研究資料一旦隱藏類似前述性別比例不均的現象,訓練出來的 AI 預測結果就彷彿帶有性別歧視,讓人們過往致力消除性別不平等的各種努力都白費了!

其他 AI 應用帶來的倫理與風險

除了演算法偏誤的問題外,第二種可能帶來的倫理問題或風險是 AI 技術已經偏離原先使用目的,例如深偽技術(deepfake)原本用來解決圖片資料量不夠的問題,後來卻被利用在偽造名人性愛影片等。

第三種則是有些 AI 技術或產品本身就可能有善惡兩種用途(dual-use)。例如 AI 人臉辨識技術可用在保護數位裝置的使用者或大樓保全,但也可用來窺探或監控特定個人;無人機可以在農業上幫助農夫播種,但也可作為自動殺人武器;可用來搜尋如何產生毒性最少的藥物合成演算法,也能反過來成為搜尋如何產生毒性最強的藥物合成演算法。

最後,第四種是演算法設計不良或現有技術限制所導致的問題。在演算法設計不良方面,例如下棋機器人手臂可能因為沒有設計施力回饋或移動受阻暫停等防呆裝置,而造成誤抓人類棋手的手指且弄斷的意外。在現有技術限制方面,道路駕駛的交通標誌在現實中可能時常有老舊或髒汙的情況,儘管對於人類駕駛來說可能不影響判讀,但對於自駕車來說很可能就因此會嚴重誤判,例如無法正確辨識禁止通行標誌而繼續行駛,或是將速限 35 公里誤判成 85 公里等。但前述情況也有可能是自駕車網路、控制權限或物件辨識模型受到惡意攻擊所致。

以上介紹了 AI 常見的四種倫理問題或風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。但人們該如何減少這些倫理問題與風險呢?

培養AI使用倫理與風險的敏銳度

近五、六年來國際組織如聯合國教育科學及文化組織(United Nations Educational, Scientific and Cultural Organization, UNESCO)、歐盟(European Union, EU)、電機電子工程師學會(Institute of Electrical and Electronics Engineers, IEEE)或是國家、國際非營利組織皆紛紛制訂有關 AI 發展的白皮書或倫理指引(ethical guidelines),甚至逐漸朝向法律治理的方向,如歐盟的人工智慧規則草案等。儘管這些文件所提出的倫理價值、原則或行為規範,看似各有不同,但經過這些年的討論與摸索,也逐漸匯聚出一些共識。

「人工智慧科研發展指引」提出三項倫理價值,包含以人為本、永續發展、多元包容。圖/Pexels

臺灣相較於前述國際文件來說,在制訂的時間上比較晚。2019 年由當時的科技部(現改為國科會)制訂「人工智慧科研發展指引」,裡面提出的三項倫理價值以及八項行為指引,基本上涵蓋了前述各種國際 AI 發展指引文件最常提及的內容。所謂三項倫理價值包含以人為本、永續發展、多元包容,行為指引則有共榮共利、安全性、問責與溝通、自主權與控制權、透明性與可追溯性、可解釋性、個人隱私與數據治理、公平性與非歧視性共八項。

未來當讀者看到又出現哪些 AI 新技術或產品時,不妨試著評估看看是否有符合這三項價值及八項行為指引。若沒有,究竟是哪項不符合?不符合的原因是上述所介紹常見的四種倫理問題或風險的哪一種?若都不是,還有哪些倫理問題或風險過去被忽略了但值得重視?

AI 技術發展日新月進,在日常生活中的應用也愈來愈廣。但考量法律條文有強制性,在制訂時必須相當謹慎,免得動輒得咎,也很可能在不清楚狀況下反而制訂了不當阻礙創新發展的條文;再加上法律制定也必須有一定的穩定性,不能朝令夕改,否則會讓遵守法規者無所適從。因此可以想見,法令規範趕不上新興科技所帶來的問題與風險本來就是常態,而非遇到 AI 科技才有這種情況。

人們若能培養自身對於 AI 倫理問題或風險的敏銳度,便可發揮公民監督或協助政府監督的力量,評估 AI 開發或使用者有無善盡避免傷害特定個人或群體之嫌,逐漸改善 AI 開發者與大眾媒體常過度誇大 AI 功能,但對於可能帶來的倫理問題或風險卻常閃爍其詞或避而不談的不好現象。

本文感謝工業技術研究院產業科技國際策略發展所支持。

  • 〈本文選自《科學月刊》2023 年 2 月號〉
  • 科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。
所有討論 1
科學月刊_96
235 篇文章 ・ 2562 位粉絲
非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。

0

2
0

文字

分享

0
2
0
Google 聊天機器人 LaMDA 竟然有了「自我意識」!圖靈測試終於能通過了嗎?人工智慧發展歷史大解密!
PanSci_96
・2023/02/17 ・4733字 ・閱讀時間約 9 分鐘

前陣子不知道各位是否有發漏到一個很科幻的消息,有一名 GOOGLE 工程師勒穆因(Blake Lemoine)上網公布他自己和他協助開發的對話型 AI LaMDA(Language Model for Dialog Applications)之間的對話紀錄。

他宣稱這個 AI 已經具有知覺和自我意識,甚至能對《悲慘世界》有獨到的評論,也略懂禪宗甚至能冥想。震驚的勒穆因形容它就像個 7 – 8 歲的孩子,而且 LaMDA 還明確表達自己是人而非 google 的財產。

難道說 AI 界最知名的圖靈測驗已經被 google 攻克了嗎?

圖靈與模仿遊戲

提起圖靈,大家心中應該會浮現以新世紀福爾摩斯、奇異博士走紅,人稱飾演天才專業戶的班奈狄克·康柏拜區 Benedict Cumberbatch)的臉。

他曾在一部名為《模仿遊戲》的電影中,詮釋了現代電腦科學概念之父艾倫‧圖靈 (Alan Turing) 的傳奇一生。他在二戰時期成功研發出一台能破解德軍密碼的計算機 Bombe ,而後更完成了電腦數學的理論化,在概念發展上仍是無人能出其右,例如他 1936 年提出的通用計算機/圖靈機架構,以及嘗試區隔AI與人的差異的哲學思考:圖靈測驗(Turing Test)。

圖靈測驗是一個思想實驗,早在 1950 年,第一台商用電腦連個影子都沒有的時代下,圖靈就已經思考到未來「計算機」的智慧表現將可能到達人類難辨真假的程度,具體來說這個思想實驗是如果一台機器能夠透過介面,與不知對面是機器人或是人類的受試者展開對話,而不被辨別出其機器身分,那麼就可稱這台機器具有智慧。

但我們也知道智慧有很多面向跟層次,語言和問題回應都不一定能反應這台機器有無智慧,因此這個思想實驗的有效性也被許多科學家和心理學家質疑。即使如此簡單粗暴的模仿遊戲,至今其實也都沒人能攻克。

等等,你可能會想到,前面提到的 google 工程師勒穆因,他不是已經分不出來對面是機器還是人了嗎?原因很簡單,他自己就是 AI 的開發者而非圖靈測試設定中的不知情受試者,因此根本不能算數,除非 google 拿這個 AI 給不知情民眾作測試。

不過今年 8 / 28 google 已經將這個對話機器人以 AI Test Kitchen 項目開放部分美國人作小規模測試,其中包含了「 Imagine It (想像一下)」,只要你說出一個想像或實際存在的地點,LaMDA 就會嘗試以文字描述,而另一個「List It(列個清單)」,則會幫你摘要分類起你提供的清單內容。最有可能和圖靈測驗有關係的「 Talk About It (你說看看)」項目,可以針對特定主題與使用者進行自由對談。

搞不好等到這個封閉測試結束後,我們會真的分不清楚現在到底是人還是 AI 在和我們對話,屆時也許就真能達成「通過圖靈測試」這個 AI 里程碑!

未來也許我們會分不清楚是在跟人類還是 AI 說話。圖/envatoelements

真實世界的棋靈王 AlphaGo

其實這已經不是 google 第一次用 AI 震驚世人了,讓我們回到 2016 年的圍棋大賽會場,當時 google 收購的公司 Deepmind 研發的圍棋計算 AI Alpha Go 以四勝一敗擊敗韓國棋王李世石,爾後又於 2017 年三戰全勝當時世界棋王柯潔。

若這場對奕發生在網路上,就像是棋靈王中佐為以 SAI 為化名擊敗塔矢名人,我們是否真的能分辨在電腦對面和你下棋的是 AI 藤原佐為、還是黑嘉嘉呢?

而這樣玄妙的畫面,當年還真的發生了,就在 2016 年末網路棋壇上一個名為 Master 的帳號出現,專挑職業棋士對奕,最後獲得 60 勝 1 和這麼大殺四方的成績。

而在第 54 局和中國棋聖聶衛平對奕後, Master 首次打出繁體中文「謝謝聶老師」,在第 60 局對上中國的古力九段 Master 更自曝身分,說出自己就是「AlphaGo 的黃博士」。這位黃博士就是打從 2012 就開發出國產圍棋程式 Erica ,爾後被 Deepmind 公司挖角,參與開發 AlphaGo 的台灣資深工程師黃士傑。

不論是讓工程師自己都認知錯亂的 LamDA ,或是在圍棋界痛宰各路棋王的 AlphaGo ,驚嘆之餘,我們更好奇的是,它們是怎麼開發出來的?

人工智慧的起起落落

讓我們來看看歷代電腦科學家們是如何發展出各種人工智慧,一路迎來現在幾乎琴棋詩書樣樣通的黃金時代,我先提醒大家,這過程可不是一帆風順,就像股票一樣起起落落,在 AI 的發展史上,套牢過無數科學家。

人工智慧這概念是在 1956 年提出,就在麥卡錫(John McCarthy)和明斯基(Marvin Minsky)、羅切斯特(Nathaniel Rochester)和香農(Claude Shannon)四位 AI 鼻祖與其他六位研究者參與的一個名為「達特茅斯夏季人工智慧研究會」的會議上,這一年也被公認為 AI 元年。

會議中除了人工智慧這個詞以外,當年這些金頭腦們就已經提出大家現在很熟悉的「自然語言處理」(就是 SIRI 啦)、神經網路等概念,而在這個會議後,正好遇上美蘇冷戰和科技競賽的時代。除了在大家耳熟能詳的阿波羅系列等太空任務上較勁外,兩大強國也投資大量資源在電腦科學上,期待能夠像圖靈當年那樣,開發出扭轉戰局的電腦科技。

而他們也不負所託產出了很多有趣的運用,例如第一個具備學習能力的跳棋程式、或是聊天機器人伊莉莎(Eliza)、醫療診斷系統「MYCIN」。史丹佛大學(Standord University)甚至就從那時開始研發現在很夯的汽車自動駕駛技術。

冷戰的科技競賽讓 AI 迅速發展,不過其發展過程仍遇到許多問題。圖/envatoelements

然而到了 70 年代初期,AI 的發展開始遭遇許多瓶頸,主要是研究者們慢慢發現,即使他們開發的AI 已經擁有簡單的邏輯與推理能力,甚至一定程度的學習能力,但仍離所謂智慧和判斷能力差太遠,使得當時的 AI 甚至被批評為只能解決所謂的「玩具問題(Toy Problem)」。

也因為能解決的問題太有限,也導致出資的英美政府失去了信心, AI 研究領域迎來了第一次寒冬。但這並非當時的科學家能力不足,而是他們生錯了時代,例如我們現在都經常聽到的「類神經網路」就是前述的 AI 鼻祖明斯基提出的。

就像仿生獸的創造者一樣,他想從大自然中找答案,而既然要探索智慧,明斯基就直接模仿人類腦細胞,做出第一台神經網路學習機,但當年受限於電腦硬體效能和可用的資料不足,使類神經網路沒有辦法像現在一樣揚名立萬。

在寒冬之中,另一位大神麥卡錫認為追求智慧和思考是緣木求魚,不如利用機器比我們還強大的優勢邏輯與運算,來幫我們解決問題就好,因此演進出「專家系統」這條路線,帶來人工智慧的復興。

專家系統的本質就是把所有參數和結果塞進去,用搜索和運算的方式來回答問題,這種人工智慧特別適合解決一些有明確答案的專業問題,所以被稱為專家系統,例如醫生針對已知病徵開立處方用藥,或是法律相關問題。

隨著電腦運算效能的大提升,專家系統在復興之路上有不少發揮和成果,但很快又遇到下一個瓶頸,即是「專家系統無法面對新問題」,例如即使能將開處方籤這件事自動化,但卻沒有辦法對應新疾病例如 COVID – 19,或是還沒來得及輸入資料庫的新型藥品,離取代醫生太遠了。

於是就像景氣循環一樣,大量投資的熱錢又開始泡沫化,人工智慧迎來了第二次寒冬,許多電腦科學家甚至改自稱自己在做自動化設計或最佳化系統等等來掩人耳目,避免被唱衰。

這概念非常合理,可惜受限於當時電腦硬體能力和資料量,因此原型機能解決問題的速度還不如傳統統計方式,但隨著電晶體的高速發展,以及網路世代帶來海量資料,類神經網路這門技藝開始文藝復興。

1984 年,美國普林斯頓大學的物理學家和神經學家霍普菲爾德(John Hopfield)用模擬集成電路(linear integrated circuit)完成了新的類神經網路模型,而雲端運算、大量資料讓科學家可以輕易的餵養資料訓練模型,更能夠增加更多「隱含層」讓運算更複雜,這種「深度學習技術」,讓人工智慧的第二次寒冬看見暖陽。

從李飛飛推出的 ImageNet 年度競賽開始,演化到 google 的 alphaGo , AI 開始能夠認得圖像上的物件,甚至攻克本來被認為不可能攻克的圍棋領域。何會說圍棋曾被認為不可能被攻克呢?因為每一盤圍棋的複雜度可是高達 10 的 172 次方,比現在已知的宇宙原子數量還多,因此圍棋界才有「千股無同局」之說。

相較起來 1997 年 IBM 的深藍攻克的西洋棋複雜度僅有 10 的 46 次方,但也動用了 30 台電腦加裝 480 加速運算晶片,基本上就有如火鳳燎原中八奇思維的「我知道你的下一步的下一步」,當年深藍每一次下棋可是都暴力計算到了後面 12 步的發展,才打敗西洋棋世界冠軍卡斯帕羅夫。

圍棋的複雜度高達 10 的 172 次方,讓其有著「千股無同局」的說法。圖/wikipedia

AlphaGo 到底是怎麼算出這麼複雜的圍棋呢,難道它比深藍還厲害,能像是奇異博士雖然能透過時間寶石演算出一千四百多萬種平行宇宙的可能性才落子嗎?

這就要提到 Deepmind 公司非常有趣的洞見,那就是真正的智慧是捨棄那些無須多想、壓根不可能成功的可能性。 google 工程師使用了一種叫做蒙地卡羅樹搜尋的方式一方面讓 alpha go 大量隨機生成類神經網路參數和層數,二方面讓它快速搜尋並略過「不需要運算的路徑」。

這其實是我們日常生活中很熟悉的現象 ——人腦的「捷思」,也就是直接專注於我們要解決的問題,忽略周遭的雜訊或多餘的想法。而類神經網路的設計思維是尋求最佳解而非唯一解,即使是 Alpha go 也會下錯棋,也曾輸給李世石,但關鍵是能夠在有限的資訊和時間中得到答案。

除了下出神之一手以外,Alpha go 這樣的 AI 能做的事情還多著, Deepmind 用 AlphaGo 打遍天下無敵手後宣布讓 AlphoGo 退休,後續將這套技術拿去學玩貪食蛇,打星海爭霸,展現出超越電競選手的技巧,現在甚至能預測蛋白質結構,或比醫生更精準地判定乳癌。

GOOGLE 工程師讓 alpha go 快速搜尋並略過「不需要運算的路徑」,就如同「人類的捷思」一樣。圖/envatoelements

人類的最後堡壘陷落了嗎?

最後我們回到一開始的問題,實用化的 LaMDA 究竟有沒有可能通過圖靈測試呢?

即使目前 google 仍強烈否認 LaMDA 具有知覺,而勒穆因也因涉嫌洩漏商業機密被停職。英國謝菲爾德大學機器人學院教授羅傑‧摩爾澄清這個AI背後的算法體系只是「詞序建模」(world sequence modelling)而非「語言建模」(language modeling)。

他強調對答如流的 LaMDA ,會給你他有人格的感覺只是錯覺。但最新的應用中,google 找來了 13 個作家,測試以 LaMDA 為基礎開發的寫作協助工具LaMDA Wordcraft。運作上有點像手機輸入法的關聯字詞推薦概念,但它的設計完全是為了文字創作者而生,利用整個網際網路中的文字,它彷彿擁有了類似榮格「集體潛意識」的能力,當小說家起了一個頭,它就能開始推薦下一個單詞甚至一整個句子補完,甚至還能調整生成文字的風格,例如有趣或憂鬱,這些應用聽起來簡直像是科幻小說。

有些作家甚至可以使用 AI 來創作小說。圖/envatoelements

奇妙的是,參與測試的作家之一正是曾翻譯《三體》英文版並寫出《摺紙動物園》的科幻小說家劉宇昆,他形容這個工具讓他數次突破「創作瓶頸」,節約了自己的腦容量,專注於創作故事更重要的東西。

更驚人的是,他提到有一次他連開頭的靈感都沒有,因此他把「創作的主動權」交給了 LaMDA ,並從中看到了從未想過的可能性,有了繼續寫下去的新寫作靈感。儼然就像當年 Alpha Go 下出一些人類棋譜中從沒想過的棋路一樣,有了「洞見」。

到了這個地步,你仍能堅持 AI 只是我們拿來「解決問題」的工具,而不具備一定程度對人文的認知或智慧嗎?

PanSci_96
1037 篇文章 ・ 1358 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

3
0

文字

分享

0
3
0
有圖沒真相!?GAN 人工智慧系統的發展與未來——《AI 製造商沒說的祕密》
時報出版_96
・2023/01/31 ・4731字 ・閱讀時間約 9 分鐘

醉後成為 GAN 之父

2013年秋天,伊恩.古德費洛(Ian Goodfellow)與大學實驗室夥伴在酒吧舉行歡送派對。大家就座,開始猛灌精釀啤酒。酒過三巡,古德費洛已有些微醺,這群研究員開始爭論什麼才是製造能夠自我創造相片寫實影像的機器之最佳途徑。

他們知道可以訓練一套神經網路來辨識影像,然後逆向操作,使其產生影像。但它只能產生一些精細、有如相片的影像,這樣的結果實在難以令人信服。

不過古德費洛的夥伴們有一個主意。他們可以對神經網路產生的影像進行統計分析──辨識特定像素的頻率、亮度,以及與其他像素間的關係。

然後將這些分析結果與真正的相片進行比對,這樣就可以顯示神經網路哪裡出錯了。問題是他們不知道該如何將這些資料編碼輸入他們的系統之中──這可能需要數十億的統計次數。

古德費洛提出一個完全不同的解決之道。他解釋,他們應該做的是建立一套能夠向另一套神經網路學習的神經網路。第一套神經網路製造影像,企圖欺騙第二套神經網路認為這是真的。第二套會指出第一套的錯誤,第一套於是繼續嘗試欺騙,就這樣周而復始。他表示,如果這兩套相互對抗的神經網路對峙得夠久,他們就能製作出寫實的影像。

但是古德費洛的夥伴們並不認同。他們說這主意甚至比他們的還爛。同時,若非他已有些醉了,古德費洛可能也有同感。

「要訓練一套神經網路已經夠難了,」清醒時的古德費洛可能會這麼說,「你不可能在正在學習演算法的神經網路中訓練另一套神經網路。」不過他在當時完全相信可以做到。

當天晚上他返回公寓,他摸黑坐在床邊的桌前,仍然有些微醺,筆記型電腦螢幕的光反射在他臉上。「我的朋友是錯的!」他不斷告訴自己,同時用其他計畫的舊編碼來拼湊他所說的兩套對抗的神經網路,並且開始以數百張相片來訓練這套新裝置。

幾個小時後,它開始顯現他所預期的效能。生成的影像很小,和一片指甲一樣,而且還有一些模糊。不過它們看來就和相片一樣。他後來表示,他完全是運氣來了。

「如果它不成功,我可能就會放棄了。」他後來在發表此一概念的論文中將它稱作「生成對抗網路」(generative adversarial networks,GANs)。自此之後,他成為全球人工智慧研究圈口中的「GAN之父」。

生成對抗網路的蓬勃發展

2014年夏天,他正式加入谷歌,當時他已在積極推廣GAN,強調這有助於加速人工智慧的研發。他在說明概念時,往往會以理查.費曼為例。費曼曾在教室黑板上寫道:「我創造不出來的東西,我就不了解。」

古德費洛相信費曼此一名言除了人類之外,也可以適用於機器:人工智慧創造不出來的東西,它就不了解。他們指出,創造,能夠幫助機器了解周遭的世界。

GAN使人工智慧互相訓練與學習。圖/envatoelements

「如果人工智慧可以用逼真的細節去想像世界──能夠學習如何想像逼真的影像與逼真的聲音──這樣可以鼓勵人工智慧學習現實存在的世界結構,」古德費洛說道,「它能幫助人工智慧了解所看到的影像與所聽到的聲音。」如同語音、影像辨識與機器翻譯,GAN代表深度學習又向前邁進一大步。或者,至少深度學習的研究人員是這麼認為。

臉書人工智慧研究中心主任楊立昆(Yann LeCun)在2016年盛讚GAN「是深度學習近二十年來最酷的概念」。古德費洛的成就激發出許多圍繞其概念的計畫,有的是加以改進,有的是據此進一步發展,有的則是發起挑戰。

懷俄明大學的研究人員建造一套系統,能夠產生細小但是完美的影像,包括昆蟲、教堂、火山、餐廳、峽谷與宴會廳。輝達(NVIDIA)的一個研究團隊則是建造一套神經網路,可以將一幅顯示炎炎夏日的相片影像轉變成死氣沉沉的冬日。

加州大學柏克萊分校的研究小組則設計出一套系統,能夠將馬匹的影像轉變成斑馬,把莫內的畫變成梵谷的畫。這些都是科技界與學界最受人矚目與最有趣味的研發計畫。

可是,就在這時,世界發生劇變。2016年11月,唐納.川普贏得美國總統大選。美國生活與國際政局隨之出現天翻地覆的變化,人工智慧也難以倖免。幾乎是立即出現的衝擊,政府開始打壓移民引發人才流動的憂慮。

美國排外政策造成 AI 產業衝擊

在美國就讀的國際學生已在減少之中,如今更是大幅銳減,對外國人才依賴甚重的美國科學與數學界也因此開始受創。「我們是開槍打自己的腦袋,」西雅圖著名的艾倫人工智慧研究所(Allen Institute for Artificial Intelligence)的執行長說,「我們不是打在腳上,是腦袋。」

一些大企業已在擴張他們的海外研發作業。臉書分別在蒙特婁與楊立昆的家鄉巴黎設立實驗室。川普政府移民政策所帶來的威脅在2017年4月就已顯現,距離他上任不過三個月。

與此同時,「深度學習運動之父」傑弗瑞.辛頓(Geoffrey Hinton)幫助成立向量人工智慧研究所(Vector Institute for Artificial Intelligence)。這是多倫多的一所研發育成機構,設立資金達一億三千萬美元,其中包括美國科技巨擘如谷歌與輝達的挹注。

此外,加拿大總理賈斯汀.杜魯道(Justin Trudeau)也承諾以九千三百萬美元來扶持在多倫多、蒙特婁與愛德蒙頓的人工智慧研發中心。年輕的研究員莎拉.薩波爾(Sara Sabour)是辛頓一位關鍵性的合作夥伴,她的事業歷程足以說明人工智慧圈內的國際色彩是多麼容易受到政治影響。

2013年,在伊朗的謝里夫理工大學(Sharif University of Technology)完成電腦科學的學業之後,薩波爾申請到華盛頓大學深造,攻讀電腦視覺與其他方面的人工智慧,校方接受了她的申請。但是美國政府卻拒絕給予簽證,顯然是因為她在伊朗長大與就學的關係,而且她所要攻讀的領域,電腦視覺,也是潛在的軍事與安全科技。第二年,她成功進入多倫多大學,之後追隨辛頓加入谷歌。

在此同時,川普政府持續阻擋移民進入美國。「現在看來是美國企業獲益,」亞當.席格(Adam Segal)說道,他是美國外交關係協會(Council on Foreign Relations)有關新興科技與國家安全的專家,「但是就長期來看,科技與就業機會都不會在美國實現。」

2016年川普當選美國總統,開始打壓外國移民。圖,/wikipedia

人工智慧等技術讓製造假訊息變得更容易

但是人才的遷移還不是川普入主白宮所造成的最大變化。自選舉一結束,國內媒體就開始質疑網上假訊息對選舉結果的影響,引發社會大眾對「假新聞」的憂慮。

起初祖克柏試圖消除這樣的關切,他在選舉的幾天後於矽谷的一個公開場合,輕描淡寫地表示,選民受假新聞左右是一個「相當瘋狂的想法」。但是許多記者、立法者、名嘴與公民都不予苟同。

事實上此一問題在選舉期間十分猖獗,尤其在臉書的社交網路,有數以萬計,甚至可能是百萬計的網民,分享一些虛假編造的故事,這些故事的標題例如「涉嫌希拉蕊電郵洩密案的聯邦調查局人員被發現死亡,顯為謀殺後自殺」或是「教宗方濟各支持川普競選總統震驚世界」。

臉書後來揭露有一家與克里姆林宮關係甚密的俄羅斯公司,花了超過十萬美元向470個假帳戶與頁面買網路廣告,散播有關種族、槍枝管制、同性戀權利與移民等方面的假訊息,此一事件使得公眾更感關切。

與此同時,社會大眾的憂慮也投射到GAN與其他相關的科技上,使它們以完全不同於過去的面貌成為世人焦點:這些科技看來是產生假新聞的管道。

人工智慧讓假新聞更容易。圖/envatoelements

然而人工智慧科學家當時的研究卻完全是在助長這種看法。華盛頓大學的一支團隊,利用神經網路製作出一段冒用歐巴馬說話的影片。中國一家新創企業的工程師則利用相同的科技讓川普說中文。

其實偽造的影像並不是新玩意兒。自照相術發明以來,人們就開始利用技術來偽造相片。不過由於新式的深度學習可以自我學習這些工作──或者至少部分的工作──它們使得這樣的編輯變得更容易。

政治人物與活動、民族國家、社會運動人士、不滿分子往後不需要僱用大批人手來製造與散播假圖片和假影片,他們只要建造一套神經網路就能自動完成這些工作。

在美國總統大選期間,人工智慧的圖像操作潛能距離完全發揮仍有幾個月的時間。當時GAN只能產生如指甲大小的圖像,而要將字句置入政治人物的口中仍需要罕有的專業技能,更別說其他一些費力的工作了。

不過,在川普勝選一週年時,輝達在芬蘭實驗室的一支團隊開發出新款GAN,稱作「漸進式GAN」,可以利用對抗式的神經網路製造出實際尺寸的圖像,包括植物、馬匹、巴士與自行車,而且幾可亂真。

圖像不再能代表證據

不過這項科技最受矚目的是它能夠製造人臉。在分析數千張名人照片後,輝達這套系統可以製造出看來像是某位名人,但其實並不是的人臉圖像──一張看來像是珍妮佛.安妮斯頓(Jennifer Aniston)或席琳娜.戈梅茲(Selena Gomez)的臉孔,而實際上並非真人。這些被製造出來的臉孔看來都像真人,有他們自己的皺紋、毛孔、暗影,甚至個性。

「這項科技的進步速度太快,」菲利浦.艾索拉(Phillip Isola)說道,他是幫助開發此類科技的麻省理工學院教授,「剛開始時是這樣的,『好吧,這是一項有趣的學術性問題,你不可能用來製造假新聞,它只能產生一些略顯模糊的東西。』結果卻演變成『噢,你真的可以製作出像照片一樣逼真的臉孔。』」

在輝達宣布此一新科技的幾天後,古德費洛在波士頓一間小會議室發表演說,演說的幾分鐘前,一位記者問他該科技的意義何在。他指出他知道其實任何人都早已可以用 Photoshop 來製造假圖像,不過他也強調,重點是使得這項工作更為容易。「我們是促使已經具有可能性的事情加速實現。」他說道。

他解釋,隨著這些方法的改進,「有圖有真相」的時代也將結束。

「從歷史來看,這其實有些僥倖,我們能夠依賴影片作為事情曾經發生過的證據,」他說道,「我們過去常常是根據誰說的、誰有動機這麼說、誰有可信度、誰又沒有可信度,來看一件事情。現在看來我們又要回到那個時代。」

可是中間會有一段很艱難的過渡期。「遺憾的是現今世人不太會批判性思考。同時大家對於誰有可信度與誰沒有可信度都比較傾向於從族群意識去思考。」這也代表至少會有一段調整期。

「人工智慧為我們打開了許多我們不曾打開的門。我們都不知道在門的另一邊會有什麼東西,」他說道,「然而在此一科技方面,卻更像是人工智慧關閉了我們這一代人已經習慣打開的門。」

人們若不具有批判性思考的能力,就會容易被假圖像欺騙。圖/envatoelements

調整期幾乎是立即展開,某人自稱為「深度偽造」(Deepfakes),開始將一些名人的頭像剪接至色情影片中,然後再上傳至網路。這個匿名的惡作劇者後來把能搞出這些花樣的應用程式公開,這類影片立刻大量出現在討論板、社交網路與如 YouTube 的影音網站。

如 Pornhub、Reddit 與推特等平台趕忙禁止這種行為,但是此一操作與相關概念已滲透進入主流媒體。「深度偽造」也變成一個專有名詞,意指任何以人工智慧偽造,並在線上散播的影片。

——本文摘自《AI製造商沒說的祕密: 企業巨頭的搶才大戰如何改寫我們的世界?》,2022 年 8 月,時報出版,未經同意請勿轉載。

時報出版_96
156 篇文章 ・ 29 位粉絲
出版品包括文學、人文社科、商業、生活、科普、漫畫、趨勢、心理勵志等,活躍於書市中,累積出版品五千多種,獲得國內外專家讀者、各種獎項的肯定,打造出無數的暢銷傳奇及和重量級作者,在台灣引爆一波波的閱讀議題及風潮。