0

2
0

文字

分享

0
2
0

Google 聊天機器人 LaMDA 竟然有了「自我意識」!圖靈測試終於能通過了嗎?人工智慧發展歷史大解密!

PanSci_96
・2023/02/17 ・4733字 ・閱讀時間約 9 分鐘

前陣子不知道各位是否有發漏到一個很科幻的消息,有一名 GOOGLE 工程師勒穆因(Blake Lemoine)上網公布他自己和他協助開發的對話型 AI LaMDA(Language Model for Dialog Applications)之間的對話紀錄。

他宣稱這個 AI 已經具有知覺和自我意識,甚至能對《悲慘世界》有獨到的評論,也略懂禪宗甚至能冥想。震驚的勒穆因形容它就像個 7 – 8 歲的孩子,而且 LaMDA 還明確表達自己是人而非 google 的財產。

難道說 AI 界最知名的圖靈測驗已經被 google 攻克了嗎?

圖靈與模仿遊戲

提起圖靈,大家心中應該會浮現以新世紀福爾摩斯、奇異博士走紅,人稱飾演天才專業戶的班奈狄克·康柏拜區 Benedict Cumberbatch)的臉。

他曾在一部名為《模仿遊戲》的電影中,詮釋了現代電腦科學概念之父艾倫‧圖靈 (Alan Turing) 的傳奇一生。他在二戰時期成功研發出一台能破解德軍密碼的計算機 Bombe ,而後更完成了電腦數學的理論化,在概念發展上仍是無人能出其右,例如他 1936 年提出的通用計算機/圖靈機架構,以及嘗試區隔AI與人的差異的哲學思考:圖靈測驗(Turing Test)。

圖靈測驗是一個思想實驗,早在 1950 年,第一台商用電腦連個影子都沒有的時代下,圖靈就已經思考到未來「計算機」的智慧表現將可能到達人類難辨真假的程度,具體來說這個思想實驗是如果一台機器能夠透過介面,與不知對面是機器人或是人類的受試者展開對話,而不被辨別出其機器身分,那麼就可稱這台機器具有智慧。

但我們也知道智慧有很多面向跟層次,語言和問題回應都不一定能反應這台機器有無智慧,因此這個思想實驗的有效性也被許多科學家和心理學家質疑。即使如此簡單粗暴的模仿遊戲,至今其實也都沒人能攻克。

等等,你可能會想到,前面提到的 google 工程師勒穆因,他不是已經分不出來對面是機器還是人了嗎?原因很簡單,他自己就是 AI 的開發者而非圖靈測試設定中的不知情受試者,因此根本不能算數,除非 google 拿這個 AI 給不知情民眾作測試。

不過今年 8 / 28 google 已經將這個對話機器人以 AI Test Kitchen 項目開放部分美國人作小規模測試,其中包含了「 Imagine It (想像一下)」,只要你說出一個想像或實際存在的地點,LaMDA 就會嘗試以文字描述,而另一個「List It(列個清單)」,則會幫你摘要分類起你提供的清單內容。最有可能和圖靈測驗有關係的「 Talk About It (你說看看)」項目,可以針對特定主題與使用者進行自由對談。

搞不好等到這個封閉測試結束後,我們會真的分不清楚現在到底是人還是 AI 在和我們對話,屆時也許就真能達成「通過圖靈測試」這個 AI 里程碑!

未來也許我們會分不清楚是在跟人類還是 AI 說話。圖/envatoelements

真實世界的棋靈王 AlphaGo

其實這已經不是 google 第一次用 AI 震驚世人了,讓我們回到 2016 年的圍棋大賽會場,當時 google 收購的公司 Deepmind 研發的圍棋計算 AI Alpha Go 以四勝一敗擊敗韓國棋王李世石,爾後又於 2017 年三戰全勝當時世界棋王柯潔。

若這場對奕發生在網路上,就像是棋靈王中佐為以 SAI 為化名擊敗塔矢名人,我們是否真的能分辨在電腦對面和你下棋的是 AI 藤原佐為、還是黑嘉嘉呢?

而這樣玄妙的畫面,當年還真的發生了,就在 2016 年末網路棋壇上一個名為 Master 的帳號出現,專挑職業棋士對奕,最後獲得 60 勝 1 和這麼大殺四方的成績。

而在第 54 局和中國棋聖聶衛平對奕後, Master 首次打出繁體中文「謝謝聶老師」,在第 60 局對上中國的古力九段 Master 更自曝身分,說出自己就是「AlphaGo 的黃博士」。這位黃博士就是打從 2012 就開發出國產圍棋程式 Erica ,爾後被 Deepmind 公司挖角,參與開發 AlphaGo 的台灣資深工程師黃士傑。

不論是讓工程師自己都認知錯亂的 LamDA ,或是在圍棋界痛宰各路棋王的 AlphaGo ,驚嘆之餘,我們更好奇的是,它們是怎麼開發出來的?

人工智慧的起起落落

讓我們來看看歷代電腦科學家們是如何發展出各種人工智慧,一路迎來現在幾乎琴棋詩書樣樣通的黃金時代,我先提醒大家,這過程可不是一帆風順,就像股票一樣起起落落,在 AI 的發展史上,套牢過無數科學家。

人工智慧這概念是在 1956 年提出,就在麥卡錫(John McCarthy)和明斯基(Marvin Minsky)、羅切斯特(Nathaniel Rochester)和香農(Claude Shannon)四位 AI 鼻祖與其他六位研究者參與的一個名為「達特茅斯夏季人工智慧研究會」的會議上,這一年也被公認為 AI 元年。

會議中除了人工智慧這個詞以外,當年這些金頭腦們就已經提出大家現在很熟悉的「自然語言處理」(就是 SIRI 啦)、神經網路等概念,而在這個會議後,正好遇上美蘇冷戰和科技競賽的時代。除了在大家耳熟能詳的阿波羅系列等太空任務上較勁外,兩大強國也投資大量資源在電腦科學上,期待能夠像圖靈當年那樣,開發出扭轉戰局的電腦科技。

而他們也不負所託產出了很多有趣的運用,例如第一個具備學習能力的跳棋程式、或是聊天機器人伊莉莎(Eliza)、醫療診斷系統「MYCIN」。史丹佛大學(Standord University)甚至就從那時開始研發現在很夯的汽車自動駕駛技術。

冷戰的科技競賽讓 AI 迅速發展,不過其發展過程仍遇到許多問題。圖/envatoelements

然而到了 70 年代初期,AI 的發展開始遭遇許多瓶頸,主要是研究者們慢慢發現,即使他們開發的AI 已經擁有簡單的邏輯與推理能力,甚至一定程度的學習能力,但仍離所謂智慧和判斷能力差太遠,使得當時的 AI 甚至被批評為只能解決所謂的「玩具問題(Toy Problem)」。

也因為能解決的問題太有限,也導致出資的英美政府失去了信心, AI 研究領域迎來了第一次寒冬。但這並非當時的科學家能力不足,而是他們生錯了時代,例如我們現在都經常聽到的「類神經網路」就是前述的 AI 鼻祖明斯基提出的。

就像仿生獸的創造者一樣,他想從大自然中找答案,而既然要探索智慧,明斯基就直接模仿人類腦細胞,做出第一台神經網路學習機,但當年受限於電腦硬體效能和可用的資料不足,使類神經網路沒有辦法像現在一樣揚名立萬。

在寒冬之中,另一位大神麥卡錫認為追求智慧和思考是緣木求魚,不如利用機器比我們還強大的優勢邏輯與運算,來幫我們解決問題就好,因此演進出「專家系統」這條路線,帶來人工智慧的復興。

專家系統的本質就是把所有參數和結果塞進去,用搜索和運算的方式來回答問題,這種人工智慧特別適合解決一些有明確答案的專業問題,所以被稱為專家系統,例如醫生針對已知病徵開立處方用藥,或是法律相關問題。

隨著電腦運算效能的大提升,專家系統在復興之路上有不少發揮和成果,但很快又遇到下一個瓶頸,即是「專家系統無法面對新問題」,例如即使能將開處方籤這件事自動化,但卻沒有辦法對應新疾病例如 COVID – 19,或是還沒來得及輸入資料庫的新型藥品,離取代醫生太遠了。

於是就像景氣循環一樣,大量投資的熱錢又開始泡沫化,人工智慧迎來了第二次寒冬,許多電腦科學家甚至改自稱自己在做自動化設計或最佳化系統等等來掩人耳目,避免被唱衰。

這概念非常合理,可惜受限於當時電腦硬體能力和資料量,因此原型機能解決問題的速度還不如傳統統計方式,但隨著電晶體的高速發展,以及網路世代帶來海量資料,類神經網路這門技藝開始文藝復興。

1984 年,美國普林斯頓大學的物理學家和神經學家霍普菲爾德(John Hopfield)用模擬集成電路(linear integrated circuit)完成了新的類神經網路模型,而雲端運算、大量資料讓科學家可以輕易的餵養資料訓練模型,更能夠增加更多「隱含層」讓運算更複雜,這種「深度學習技術」,讓人工智慧的第二次寒冬看見暖陽。

從李飛飛推出的 ImageNet 年度競賽開始,演化到 google 的 alphaGo , AI 開始能夠認得圖像上的物件,甚至攻克本來被認為不可能攻克的圍棋領域。何會說圍棋曾被認為不可能被攻克呢?因為每一盤圍棋的複雜度可是高達 10 的 172 次方,比現在已知的宇宙原子數量還多,因此圍棋界才有「千股無同局」之說。

相較起來 1997 年 IBM 的深藍攻克的西洋棋複雜度僅有 10 的 46 次方,但也動用了 30 台電腦加裝 480 加速運算晶片,基本上就有如火鳳燎原中八奇思維的「我知道你的下一步的下一步」,當年深藍每一次下棋可是都暴力計算到了後面 12 步的發展,才打敗西洋棋世界冠軍卡斯帕羅夫。

圍棋的複雜度高達 10 的 172 次方,讓其有著「千股無同局」的說法。圖/wikipedia

AlphaGo 到底是怎麼算出這麼複雜的圍棋呢,難道它比深藍還厲害,能像是奇異博士雖然能透過時間寶石演算出一千四百多萬種平行宇宙的可能性才落子嗎?

這就要提到 Deepmind 公司非常有趣的洞見,那就是真正的智慧是捨棄那些無須多想、壓根不可能成功的可能性。 google 工程師使用了一種叫做蒙地卡羅樹搜尋的方式一方面讓 alpha go 大量隨機生成類神經網路參數和層數,二方面讓它快速搜尋並略過「不需要運算的路徑」。

這其實是我們日常生活中很熟悉的現象 ——人腦的「捷思」,也就是直接專注於我們要解決的問題,忽略周遭的雜訊或多餘的想法。而類神經網路的設計思維是尋求最佳解而非唯一解,即使是 Alpha go 也會下錯棋,也曾輸給李世石,但關鍵是能夠在有限的資訊和時間中得到答案。

除了下出神之一手以外,Alpha go 這樣的 AI 能做的事情還多著, Deepmind 用 AlphaGo 打遍天下無敵手後宣布讓 AlphoGo 退休,後續將這套技術拿去學玩貪食蛇,打星海爭霸,展現出超越電競選手的技巧,現在甚至能預測蛋白質結構,或比醫生更精準地判定乳癌。

GOOGLE 工程師讓 alpha go 快速搜尋並略過「不需要運算的路徑」,就如同「人類的捷思」一樣。圖/envatoelements

人類的最後堡壘陷落了嗎?

最後我們回到一開始的問題,實用化的 LaMDA 究竟有沒有可能通過圖靈測試呢?

即使目前 google 仍強烈否認 LaMDA 具有知覺,而勒穆因也因涉嫌洩漏商業機密被停職。英國謝菲爾德大學機器人學院教授羅傑‧摩爾澄清這個AI背後的算法體系只是「詞序建模」(world sequence modelling)而非「語言建模」(language modeling)。

他強調對答如流的 LaMDA ,會給你他有人格的感覺只是錯覺。但最新的應用中,google 找來了 13 個作家,測試以 LaMDA 為基礎開發的寫作協助工具LaMDA Wordcraft。運作上有點像手機輸入法的關聯字詞推薦概念,但它的設計完全是為了文字創作者而生,利用整個網際網路中的文字,它彷彿擁有了類似榮格「集體潛意識」的能力,當小說家起了一個頭,它就能開始推薦下一個單詞甚至一整個句子補完,甚至還能調整生成文字的風格,例如有趣或憂鬱,這些應用聽起來簡直像是科幻小說。

有些作家甚至可以使用 AI 來創作小說。圖/envatoelements

奇妙的是,參與測試的作家之一正是曾翻譯《三體》英文版並寫出《摺紙動物園》的科幻小說家劉宇昆,他形容這個工具讓他數次突破「創作瓶頸」,節約了自己的腦容量,專注於創作故事更重要的東西。

更驚人的是,他提到有一次他連開頭的靈感都沒有,因此他把「創作的主動權」交給了 LaMDA ,並從中看到了從未想過的可能性,有了繼續寫下去的新寫作靈感。儼然就像當年 Alpha Go 下出一些人類棋譜中從沒想過的棋路一樣,有了「洞見」。

到了這個地步,你仍能堅持 AI 只是我們拿來「解決問題」的工具,而不具備一定程度對人文的認知或智慧嗎?

文章難易度
PanSci_96
1035 篇文章 ・ 1348 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

1

6
1

文字

分享

1
6
1
日常生活範式的轉變:從紙筆到 AI
賴昭正_96
・2023/03/08 ・5723字 ・閱讀時間約 11 分鐘

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

技術的進步是基於讓它適應你,因此你可能根本不會真正注意到它,所以它是日常生活的一部分。
——比爾.蓋茨(微軟公司創辦人之一)

幾天前與內人米天寶到一家常去的餐館,沒想到已經換了主人;找到一張桌子坐下後,好久都不見服務員上來打招呼;正覺得奇怪時,唯一的服務員終於出現了。內人迫不及待的馬上要菜單,「對不起,我們這裡沒有菜單,請掃描點菜。」內人哦了一聲,不知所措……還好有不落伍的老公在旁,因此總算沒有餓著肚子回家吃泡麵。

又半年前,與三位高中同學聚餐,餐後有位同學問怎麼從這裡到他弟弟的地方……,我回答說路就在你的口袋裡:「嘿,谷歌(Google),導航到……」。再又大約 1 年前,與一對老夫妻同事不知道怎麼談到了 228 事變,先生突然問那是哪一年發生的,沒有人能回答;我突然想到答案就在我口袋裡,拿出手機:「嘿,谷歌,228 事變是哪一年發生的?」

1970 年,林孝信等人在芝加哥大學創辦《科學月刊》時,日常所用的的工具是:紙張、鉛筆、橡皮、透過郵寄傳送的書信、及非必要不用的長途電話或傳真。在下圖中可以看到當時筆者用手寫的第 1 期文章「什麼是半導體」、審稿意見表、審稿人的修改、科學月刊專用稿紙、以及筆者在加州做論文時給總部林孝信的信封。這些工具現在都可以算是古董,早不是《科學月刊》運作模式,也已全部在筆者日常生活中退役了!

圖/筆者提供

是什麼重大科技的發展造成了這些改變呢?年輕的讀者或許不知道,但是筆者回想起來都覺得有點可怕,真不敢相信將不少筆者這一代人甩停在「石器時代」的巨大變化就在筆者後半生中發生!

讓我們在這裡一起來回顧這 40 年來的科技大里程碑吧。

個人電腦

筆者 1975 年回到清華,隔年的暑假為高中化學教師進修班開了一門相當受歡迎的(台灣非法組裝的)蘋果個人電腦程序課。那時個人電腦才剛問世不久,但已經慢慢地引起廣大群眾的注意與興趣。

因此到了 1981 年,曾經是全世界最賺錢、最受歡迎品牌的大型電腦計算機公司 IBM(International Business Machines)終於被迫進入個人電腦市場。IBM 的聲名很快地使個人電腦在消費群眾裡達到臨界量,但那時使用者必須記得電腦語言及程式名字才能執行。

圖/筆者提供

1984 年,蘋果電腦公司(Apple Computers)推出了 Macintosh 後,個人電腦市場才真正開始起飛。Macintosh 導入電腦鼠標,其「所見即所得」(WYSIWYG, what you see is what you get)界面更讓使用電腦變得非常簡單[1]:只要會按鼠標就好,不必再記那些電腦語言及程式名字。隔年,微軟(Microsoft Corporation[2])也推出了具鼠標及「所見即所得」界面的 Windows 操作系統後,儘管個人電腦成為主流還需要幾年時間,但毫無疑問地個人電腦時代已經來臨了!

在個人電腦出現之前,每到月底筆者就為了與銀行對帳搞得頭暈腦脹(時常對不起來);1993 年後,筆者便開始使用「個人賬戶管理軟體」Quicken,現在不但帳目了然,核對更大部分只是一分鐘的事情而已:它早已經是筆者日常生活中不可或缺的一部分!另一個則是微軟的「文件處理軟體」Word。但後者因間接地涉及到人工智能的應用,所以留在後面再做詳細討論。

互聯網與萬維網

互聯網(internet)始於 1960 年代,為美國政府研究人員共享信息的一種方式。它的發展有兩個原因:

  1. 60 年代的計算機體積龐大且固定不動,為了利用存儲在其它地方的計算機信息,人們必須通過傳統郵政系統發送計算機磁帶;
  2. 另一個催化劑是蘇聯於 1957 年 10 月 4 日發射人造衛星 Sputnik,促使國防部考慮即使在核攻擊後仍能傳播信息的方式,因此發展了阿帕網(ARPANET,Advanced Research Projects Agency Network,高級研究計劃署網絡)。

阿帕網雖然非常成功,但其成員僅限於某些與國防部有合同的學術和研究組織,因此創建其它網絡來提供信息共享是無可避免的……。

開始時各計算機網絡並沒有一種標準的方式來相互通信。科技學家終於在 1983 年 1 月 1 日建立了「傳輸控制協議/互聯網協議」(TCP/IP)的一新通信協議,使不同網絡上的不同類型計算機終於可以相互「交談」,現在的互聯網於焉誕生,因此當天被認為是互聯網的官方生日。阿帕網和國防數據網(Defense Data Network)後來也正式改用 TCP/IP標準,因此所有網絡現在都可以通過一種通用語言連接起來。

1989 年 11 月,第一個提供商業互聯網服務(ISP, internet service provider)公司 The World 在美國出現。儘管當時電話撥號連接只能以每秒 5 萬 6 千位元的慢得令人痛苦的速度下載[3],與現在的所謂寬帶(broadband)之至少 2500 萬位元的速度相比,真是小巫見大巫,但在兩年就產生了廣泛的消費者基礎。1991 年,美國國家科學基金會(NSF)看到該公司打開了這似乎再也關閉不了的閘門,終於解除了對商業 ISP 的禁令。

圖/筆者提供

1989 年,為了滿足世界各地大學和研究所的科學家對自動化信息共享的需求,英國計算機學家伯納斯-李(Tim Berners-Lee)爵士在瑞士歐洲核子研究中心(CERN)提出了萬維網(WWW, World Wide Web)的構想:在互聯網上建立一種可以透過「超文本鏈接」(hyperlink)將文檔連接到其它文檔的信息系統,使用戶能夠從一個文檔移到另一個文檔來搜索信息。

伯納斯-李 1990 年底成功地展示了包括 WWW 瀏覽器和 HTTP 服務器的系統,於 1991 年 1 月開始提供給其它研究機構。1991 年 8 月 23 日向公眾發布後,兩年內出現了 50 個網站。現在全世界的網站已經高達 20 億個!

1994 年 10 月 13 日第一款「商業化」網絡瀏覽器 Netscape 問世,四個月內即佔據了四分之三的瀏覽器市場上;配合了個人電腦「所見即所得」的快速發展,上網已漸成為全民運動。2000 年代初期所發展出在一條電話線中可以同時負載電話和互聯網之技術[4],更為互聯網注入了新的活力,使用戶可以同時上網和打電話,提供了可以「永遠在線」的互聯網服務。

離開學校或研究機構後,互聯網、萬維網、網絡瀏覽器、谷歌搜索引擎便成了是筆者寫作時尋求資料的必要工具。例如筆者在 2005 年寫《量子的故事》第二版時,如果不是它們的幫助,根本是不可能的工作!而現在寫這篇文章也是因為它們在陪伴著筆者才能快速完成的。

還有,筆者的所有經濟活動都已經是「無紙」(paperless)化了:水、電公司以及銀行等用電子郵件(見後)寄賬單後,自動提款;退休金、社會福利金每月自動入賬;銀行間可以隨時互相轉賬;……;因此可以整年不上銀行,也可以在遙遠的區域銀行開利息比較高的戶頭。股票的交易更是不可同日而語:以前根本看不到股票的瞬間動盪,買賣股票必須打電話給券商下單;現在都是瞬間個人操作!

生活中的所有經濟活動都已經是「無紙」了。圖/Envato Elements

電子郵件

早期的電腦使用者只能在同一台電腦裡留言。1971 年,麻省理工學院畢業生湯姆林森(Ray Tomlinson)在阿帕網工作時想出了創建一個使用 @ 符號的程序,使用戶能夠在阿帕網系統中的電腦間互發送消息。

沒過多久就有人找到了使用電子郵件賺錢的方法。1978 年,圖雷克(Gary Thurek)為當時 IBM 大型電腦勁敵 DEC(Digital Equipment Corporation)向數百名阿帕網用戶發送電子郵件推銷一款新產品,聲稱為該公司帶來了 1300 萬美元的銷售額,並為自己贏得了「垃圾郵件之父」的美名。 

1982 年,「簡單郵件傳輸協議」(SMTP)標準化了郵件服務器發送和接收消息的方式。其它協議如互聯網「消息訪問協議」(IMAP)和「郵局協議」(POP),相繼在 80 年代中期出現。1993 年,美國兩家大商業互聯網服務商(AOL 和 Delphi)將他們的電子郵件系統連接到互聯網,使用戶能夠利用這種簡單快捷的通信方式。1996 年,微軟 Hotmail 成為第一個完全基於互聯網的免費電子郵件服務;一年後,微軟發布了預裝在 Windows 中的電子郵件程序。

現在的電子郵件當然已經不再只是當初之文字的傳送而已:圖片、網站連接、語音等等都可以透過電子郵件瞬間傳送到地球的另一方;真不敢想像當初一篇文章寄到台灣後、至少兩個禮拜才能收到回音的日子是怎麼過的?!

2012 年,湯姆林森在專門討論技術如何改變廣大群眾未來生活的「The Verge」網站裡謂:「我看到電子郵件的使用方式大體上與我預想的完全一致」。

智能手機

手機(cell phone)和車載電話(car phone)早就存在,但當時只能用來打電話(因為少見及昂貴,擁有它們事實上是一種身份的代表)。80 年代初手機網絡開始出現後,手機便慢慢取代家用電話成為無線便攜式電話。1999 年,加拿大「動態研究」(Research In Motion)公司推出可以傳接電子郵件的黑莓(BlackBerry)手機;2002 年進一步推出了一款「允許用戶管理他們所有的業務通信和信息、永遠在線、永遠連接的時尚……無線手持設備」的智能手機後,黑莓手機迅速成為商務人士必備的生活工具。

黑莓手機為商務人士必備的生活工具。圖/維基百科

2005 年 7 月,谷歌收購移動操作系統「安卓」(Android)。蘋果電腦公司於 2007 年元月推出具有應用程序功能和突破性互聯網通信工具的結合體手機 iPhone;緊接著, 台灣宏達國際電子股份有限公司於 2008 年 9 月推出第一款商用安卓操作系統的智能手機。

2010,谷歌當時的企業發展副總裁勞維(David Lawee)回憶說這是谷歌「有史以來最好的交易」。誠然也!現今,安卓及蘋果手機操作系統(iOS)幾乎已經控制了整個智能手機市場。

現在的手機已經不再只是打電話的工具,而是將巨大的計算能力置於我們的掌中,帶領廣大的群眾進入了掌上個人電腦領域,徹底地完全改變了我們的日常生活方式!

人工智能

前面提到「文件處理軟體」是筆者日常生活中不可或缺的一部分!但真正讓筆者丟掉紙張、鉛筆、和橡皮擦的並不是它,而是谷歌的「語音轉文字軟體」。說來慚愧,筆者以前國文沒學好,不會注音符號;因此雖然有「文件處理軟體」,筆者還是沒有辦法輸入中文。

因此曾有一段時間「威脅」《科學月刊》,謂如果不找人幫打字,那就不寫了。筆者當然心知肚明,隨著科普文章的作者越來越多,這「威脅」遲早會不管用的,因此很早就想用「語音轉文字軟體」。但早期的「語音轉文字軟體」似乎聽不太懂筆者的台灣國語,錯誤百出,因此只能心有餘而力不足的感嘆而已。

「語音轉文字軟體」所使用的思考方式不是寫傳統軟體的邏輯,而是「人工智能」(artificial intelligence)的運用。但中文「童因志泰掇」,因此人工智能必須比較「聰明」,相對地發展也比較慢。但今日的中文「語音轉文字軟體」已非昔比;如果沒有它,筆者在中文文章寫作以及通訊上,不是丟不了紙筆,便還是一位只能用英文的「假外國人」!

今天的「人工智能」不但是能支持語音轉文字的智能設備、還會與你下棋、幫你開車!事實上當然不止如此:如前面所說的,還可以隨時回答你的歷史與地理之無知!你想知道現在的高中生如何做數學作業嗎?只要將問題用智能手機照相下來,就可以立即得到答案!不懂中文的外孫女有一天突然用中文發簡訊給筆者問:「為什麼需要學第 2 種外國語呢?」

「人工智能」幫助我們達成日常生活中的各種事。圖/Envato Elements

去年 11 月 30 日美國舊金山 OpenAI 公司提供了一款免費的人工智能軟體 ChatGPT,它不但可以回答你任何問題、跟你聊天,還可以快速(以秒計)幫你寫散文、詩歌、文章。這不但立即引起整個教育界的震撼,也成為報章雜誌熱門討論的話題!過年後,不少公立高中學校便迫不及待地宣布禁止裝置及使用。

斯坦福大學教育學助理教授萊文(Sarah Levin)說:「如果你要它(對一些流行小說)進行文學分析,它會做得很好,幫你寫一篇會讓許多老師很高興、希望自己的學生都能夠寫出來的 B+ 文章!」寫一篇散文是美國大學「入學考試」中非常重要的一個評估標準,不知道他們以後將如何如何處理這一問題?

斯坦福大學「科技工數」(STEM)教學與學習實驗室的負責人李(Victor Lee)也說:「從技術層面來看,就像谷歌超越所有的網路搜索引擎,或 Netflix 改變了人們對流媒體內容的期望一樣,它(ChatGPT)將沖擊(整個)教育系統。……我們正處於一個新時代。」

這到底是好是壞? ChatGPT 回答說:「在校使用我或其他語言模型可以成為加強教育的寶貴工具;但重要的是要謹慎對待這項技術,並確保以有利於學生學習的方式使用我」。

結論

因為筆者覺得很有道理,在這裡我們就用被誤傳是愛因斯坦所說的話來結束吧:「我害怕技術與我們的人性重疊的那一天,世界上只會有一代白痴[5]。看來那一天已經離我們不遠了!?

在此先警告讀者:或許筆者下篇文章已經不是自己寫的了[6]

註釋

  1. 這兩項技術(鼠標和「所見即所得」)都不是蘋果電腦公司的創見,市場上均早已有之。SRI International 的 Douglas Engelbart 於 1960 年代初開始開發鼠標;鼠標控制計算機系統的第一次公開演示是 1968 年。因其對後來使用個人電腦的重要性發展,該次演示被稱為「所有演示之母」(the mother of all demos)。到 1972 年,從 Engelbert 得來的靈感,隔鄰 Xerox 公司的研究單位 PARC 之圖形用戶界面技術已經發展到可以支持第一個 WYSIWYG 編輯器的程度;1974 年,Butler Lampson、Charles Simonyi、及其團隊推出了世界上第一個所見即所得的文檔處理程序 Bravo。
  2. IBM 一直不看好個人電腦,也害怕個人電腦侵蝕了大型電腦的利潤,因此對個人電腦的發展一直採取消極的態度,所以將操作系統的發展工作交給了微軟。
  3. 可以看到一個接一個的英文字母在螢幕上出現。
  4. 在這之前,人們無法同時打電話和瀏覽互聯網,為了避免家庭爭執,許多家庭(包括筆者)均被強迫裝上兩條電話線。
  5. 愛因斯坦:「我們的技術已經超越了我們的人性,這一點已經變得非常明顯。」
  6. 事實上現在人工智慧的最大問題是:還沒辦法個性化!所以是寫不出這句話來了。

延伸閱讀:
「網路安全技術與比特幣」(科學月刊 2018 年 6 月號),轉載於「財團法人善科教育基金會」的網站

賴昭正_96
35 篇文章 ・ 36 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

1

1
0

文字

分享

1
1
0
AI 也會出差錯?使用人工智慧可能帶來的倫理與風險——《科學月刊》
科學月刊_96
・2023/02/19 ・3976字 ・閱讀時間約 8 分鐘

國民法官生存指南:用足夠的智識面對法庭裡的一切。

  • 甘偵蓉|清華大學人文社會 AI 應用與發展研究中心博士後研究學者。

Take Home Message

  • Facebook 或 Instagram 的訊息推薦、YouTube 或 Netflix 推薦觀賞影片、掃瞄臉部以解鎖手機,AI 應用早已在我們日常生活中隨處可見。
  • AI 應用中四種常見的倫理和風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。
  • 近年來各國家皆制訂有關 AI 發展的規範,臺灣則在 2019 年制訂「AI 科研發展指引」,期望能改善 AI 發展帶來的問題與風險。

當談到人工智慧(artificial intelligence, AI)、也就是 AI 時,讀者會想到什麼?是多年前由史匹柏(Steven Spielberg)導演的那部《A.I. 人工智慧》(A.I. Artificial Intelligence)中那個一直盼不到人類母愛而令人心碎的機器人小男孩?還是由史密斯(Will Smith)主演的《機械公敵》(I, Robot)裡那些沒遵守機器人三大法則的機器人或中央系統?

《A.I. 人工智慧》(A.I. Artificial Intelligence)電影海報,上映於 2001 年。圖/IMDb

或許未來有一天,人類真的可以設計出如電影中那些像人一樣的 AI 系統或機器人。但目前為止,你常聽到的 AI 其實既很厲害又很不厲害,為什麼呢?厲害的是它下圍棋可贏過世界冠軍,還能夠比放射科技師更快、更準確地辨識 X 光片中疑似病變的細胞;但它不厲害的是,很會下圍棋的 AI 就只能下圍棋,別說不會打牌,連撲克牌是什麼都不知道!而且每次學新事物幾乎都是打掉重練,得不斷做好多考古題才有可能學得會,不像人類通常教幾次就會舉一反三。

不過,即使目前世界上的 AI 都是這種只具備特定功能的「弱 AI」(artificial narrow intelligence, ANI),但已經為這個世界帶來相當大的進步與便利。所以,以下要談的就是 ANI 的倫理與風險。

談到這種只具特定功能的 ANI,讀者知道目前生活周遭有哪些事物有利用 AI 技術嗎?其實 Google 上的搜尋資訊、Facebook 或 Instagram 的訊息推薦、對智慧型手機喊「Siri 現在外面有下雨嗎?」等功能,或是以掃瞄臉部解鎖手機與進入大樓、YouTube 或 Netflix 推薦觀賞影片,甚至是投履歷求職、銀行審核貸款申請等都常用到 AI 技術,它早在我們日常生活中隨處可見。

AI 技術在日常生活中隨處可見,如 YouTube 推薦觀看影片。圖/Pexels

但也正是如此,讓人們這幾年在使用 AI 時,逐漸發現它可能造成的問題或傷害,以下簡單介紹常見的四種AI應用可能造成的倫理問題或風險。

演算法偏誤

第一種是演算法偏誤(algorithmic bias)。什麼是演算法偏誤?簡單來說就是 AI 在某些群體的判斷準確率或預測結果上總是很差,導致結果可能對於此群體造成系統性的不利。但為何會造成演算法偏誤?常見原因有三項。

第一項原因是,建立 AI 模型的研究資料集有偏誤,在性別、種族、社經地位等特徵上,沒有真實世界的人口分布代表性。例如數位裝置採用 AI 臉部辨識技術解鎖,原本是希望保護個人使用數位裝置的安全性,結果皮膚深的人卻常常遇到辨識失敗而無法解鎖。這通常是因為目前許多 AI 模型都是以機器學習技術設計,而機器學習的主要特性就是從過去人類留下的大量資料中學習;當初提供電腦學習臉部辨識的圖片時,如果多數都是白皮膚而非黑皮膚、多數都是男性的臉而非女性的臉,那麼電腦在學習辨識人臉的準確率上,整體而言辨識男性白人就會比辨識女性黑人要高出許多。

第二項產生演算法偏誤的原因是建立 AI 模型的研究資料集不只有偏誤,還反映現實社會中的性別、種族、社經地位等歧視;例如美國警政單位以過往犯罪資料訓練出獄後犯人再犯風險評估的 AI 模型,那些資料不意外地有色人種的犯罪紀錄遠多於白人犯罪紀錄。然而,那些紀錄也反映美國社會長久以來對於有色人種的歧視,其中包含警察對於有色人種的盤查比例遠高於白人、法院對於有色人種的定罪比例及判刑嚴重程度也遠高於白人、警力通常被派往多黑人與拉丁裔人種居住的窮困社區盤查等。所以根據過往犯罪資料所訓練出來的 AI 模型,不意外地也就會預測有色人種的再犯機率普遍來說比白人高。

第三項產生演算法偏誤的原因則是 AI 學會了連系統開發者都沒有察覺到,潛藏在資料裡的偏誤。例如科技公司人資部門本來想借助 AI 更有效率地篩選出適合來面試的履歷,所以挑選在該公司任職一定年資且曾升遷二次的員工履歷來訓練 AI 模型。問題是,高科技公司向來男多女少,所提供給 AI 學習的資料自然就男女比例相當不均。AI 也就學會了凡是出現偏向女性名字、嗜好、畢業學校系所等文字的履歷,平均所給的評分都比出現偏向男性等相關文字的履歷還低。

潛藏在資料裡的偏誤造成 AI 預測結果彷彿帶有性別歧視。圖/Envato Elements

但目前科技公司陽盛陰衰,是受到以往鼓勵男性就讀理工、女性就讀人文科系,或男性在外工作女性在家帶小孩等性別刻板偏見所影響。所以 20~30 年來許多人做出各種努力以消除這種性別刻板偏見所帶來的不良影響,政府也努力制定各種政策來消除這種不當的性別偏見,像是求才廣告基本上不能限定性別、公司聘雇員工應該達到一定的性別比例等。因此,訓練 AI 的研究資料一旦隱藏類似前述性別比例不均的現象,訓練出來的 AI 預測結果就彷彿帶有性別歧視,讓人們過往致力消除性別不平等的各種努力都白費了!

其他 AI 應用帶來的倫理與風險

除了演算法偏誤的問題外,第二種可能帶來的倫理問題或風險是 AI 技術已經偏離原先使用目的,例如深偽技術(deepfake)原本用來解決圖片資料量不夠的問題,後來卻被利用在偽造名人性愛影片等。

第三種則是有些 AI 技術或產品本身就可能有善惡兩種用途(dual-use)。例如 AI 人臉辨識技術可用在保護數位裝置的使用者或大樓保全,但也可用來窺探或監控特定個人;無人機可以在農業上幫助農夫播種,但也可作為自動殺人武器;可用來搜尋如何產生毒性最少的藥物合成演算法,也能反過來成為搜尋如何產生毒性最強的藥物合成演算法。

最後,第四種是演算法設計不良或現有技術限制所導致的問題。在演算法設計不良方面,例如下棋機器人手臂可能因為沒有設計施力回饋或移動受阻暫停等防呆裝置,而造成誤抓人類棋手的手指且弄斷的意外。在現有技術限制方面,道路駕駛的交通標誌在現實中可能時常有老舊或髒汙的情況,儘管對於人類駕駛來說可能不影響判讀,但對於自駕車來說很可能就因此會嚴重誤判,例如無法正確辨識禁止通行標誌而繼續行駛,或是將速限 35 公里誤判成 85 公里等。但前述情況也有可能是自駕車網路、控制權限或物件辨識模型受到惡意攻擊所致。

以上介紹了 AI 常見的四種倫理問題或風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。但人們該如何減少這些倫理問題與風險呢?

培養AI使用倫理與風險的敏銳度

近五、六年來國際組織如聯合國教育科學及文化組織(United Nations Educational, Scientific and Cultural Organization, UNESCO)、歐盟(European Union, EU)、電機電子工程師學會(Institute of Electrical and Electronics Engineers, IEEE)或是國家、國際非營利組織皆紛紛制訂有關 AI 發展的白皮書或倫理指引(ethical guidelines),甚至逐漸朝向法律治理的方向,如歐盟的人工智慧規則草案等。儘管這些文件所提出的倫理價值、原則或行為規範,看似各有不同,但經過這些年的討論與摸索,也逐漸匯聚出一些共識。

「人工智慧科研發展指引」提出三項倫理價值,包含以人為本、永續發展、多元包容。圖/Pexels

臺灣相較於前述國際文件來說,在制訂的時間上比較晚。2019 年由當時的科技部(現改為國科會)制訂「人工智慧科研發展指引」,裡面提出的三項倫理價值以及八項行為指引,基本上涵蓋了前述各種國際 AI 發展指引文件最常提及的內容。所謂三項倫理價值包含以人為本、永續發展、多元包容,行為指引則有共榮共利、安全性、問責與溝通、自主權與控制權、透明性與可追溯性、可解釋性、個人隱私與數據治理、公平性與非歧視性共八項。

未來當讀者看到又出現哪些 AI 新技術或產品時,不妨試著評估看看是否有符合這三項價值及八項行為指引。若沒有,究竟是哪項不符合?不符合的原因是上述所介紹常見的四種倫理問題或風險的哪一種?若都不是,還有哪些倫理問題或風險過去被忽略了但值得重視?

AI 技術發展日新月進,在日常生活中的應用也愈來愈廣。但考量法律條文有強制性,在制訂時必須相當謹慎,免得動輒得咎,也很可能在不清楚狀況下反而制訂了不當阻礙創新發展的條文;再加上法律制定也必須有一定的穩定性,不能朝令夕改,否則會讓遵守法規者無所適從。因此可以想見,法令規範趕不上新興科技所帶來的問題與風險本來就是常態,而非遇到 AI 科技才有這種情況。

人們若能培養自身對於 AI 倫理問題或風險的敏銳度,便可發揮公民監督或協助政府監督的力量,評估 AI 開發或使用者有無善盡避免傷害特定個人或群體之嫌,逐漸改善 AI 開發者與大眾媒體常過度誇大 AI 功能,但對於可能帶來的倫理問題或風險卻常閃爍其詞或避而不談的不好現象。

本文感謝工業技術研究院產業科技國際策略發展所支持。

  • 〈本文選自《科學月刊》2023 年 2 月號〉
  • 科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。
所有討論 1
科學月刊_96
235 篇文章 ・ 2549 位粉絲
非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。

0

1
0

文字

分享

0
1
0
AI 從指紋預測思覺失調症
胡中行_96
・2023/02/16 ・1536字 ・閱讀時間約 3 分鐘

國民法官生存指南:用足夠的智識面對法庭裡的一切。

潮濕幽暗的地下道裡,老仙倚靠方桌端坐。他著唐裝,戴墨鏡,深藏不露,身後的大紅背板上,毛筆字寫著:紫微斗數、命名改運、生產擇日、事業詳批…,以及手相面相。心急問事的顧客也不探價碼,還沒坐穩,就懇請老仙從掌紋看未來。

倘若科技發展像 2022 年的西班牙論文所願,將來雷同的場景,可能會是這樣:窗明几淨的診間,護理師坐在電腦後。他見民眾進來,停止打字,笑容可掬,遞出的衛教單上寫道:「請詳讀程序介紹,並向醫師詢問不明白的地方。…簽署同意書後,再依照步驟,提供指紋。下次回診時,即可領取報告。」想預測發病機率的民眾,馬上掏出了健保卡。

手相算命攤示意圖。圖/Joi Ito on Flickr(CC BY 2.0)

指紋的形成

人類胚胎的外胚層(ectoderm),分化成上皮神經組織。手指的皮紋(dermatoglyphs),也就是指紋,與神經成長重疊的時間,約是懷孕的第 6 至 24 週。[1]除了控制皮膚生長的基因、肌肉、脂肪、皮膚下的血管外;染色體變異、病毒感染、子宮內的狀態,以及母體所受的壓力或使用的藥物等,也會形塑其紋理。[1, 2]這就是同卵雙胞胎的 DNA 一樣,卻有不同指紋的原因。[2]

西班牙科學家認為,如果懷孕過程中的任何干擾,使神經組織的發育異常,或許也會反映於同時正在成形的指紋上。[1]基於定形後終生不變的特性,[1, 2]指紋就像一份隨身攜帶,內容雖不完整,但是十分可靠的孕期病歷紀錄。頂多就是隨著年齡增長,偶爾受傷留疤,否則不太會妨礙判讀。[1]

思覺失調症

思覺失調症(schizophrenia)是一種會影響思考、感覺和行為的精神疾患,症狀包括:幻覺(hallucinations)、妄想(delusions)、思考障礙、注意力渙散、動作怪異、表情減少、音調平淡、缺乏動力和社交退縮等。[3]以往的文獻指出,相較於焦慮症(anxiety disorder)、雙極性疾患(bipolar disorder)和創傷後壓力症候群(post-traumatic stress disorder)等;思覺失調症病患的指紋格外獨特。理所當然,獲選為這個研究的對象。[1]

西班牙團隊招募了 612 名泛思覺失調症患者(544 個思覺失調與 68 個情感性思覺失調);以及 844 名健康的人。用指紋掃描機,把他們的指紋掃描成電子影像,篩選、校正並調整尺寸,再將資料餵給 AI,做深度學習。[1]

準確率

回到本文開頭的情境,算命仙由掌紋預言運勢,要多模糊或精準,才能為顧客所接受?換作是醫療單位,從指紋推測是否會罹患思覺失調症,得多正確才算可信?

這個研究訓練出來的 AI,診斷的準確率約七成。[1]乍聽之下,大概不覺得有多高。畢竟精神科醫師無視指紋,也能辨別出誰符合《精神疾病診斷與統計手冊第五版》(DSM-5)立定的標準。沒事弄來能力普通的新科技,豈不是多此一舉?但是別忘了,指紋終生不變,所以同樣的 AI 不僅能診斷,更可以預測,而且準確率依然是七成![1]這就不是醫師辦得到的了。

預測疾病發生的機率,就是為了及早防範。畢竟先天體質不是發病唯一條件;後天環境等因素,也扮演了重要的角色。然而,基於同樣的理由,僅從指紋提供的那麼丁點線索,AI 無法看到胎兒後來的遭遇,導致技術進步的空間有限。未來假使實際運用,必要配合基因和腦部醫療影像等其他資訊,來提高準確率。[1]

參考資料

  1. Salvador R, García-León MÁ, Feria-Raposo I, et al. (2022) ‘Fingerprints as Predictors of Schizophrenia: A Deep Learning Study’. Schizophrenia Bulletin, 29:sbac173.
  2. Are fingerprints determined by genetics?’. (07 JUL 2022) MedlinePlus.
  3. Schizophrenia’. (MAY 2022) U.S. National Institute of Mental Health.
胡中行_96
96 篇文章 ・ 33 位粉絲
曾任澳洲臨床試驗研究護理師,以及臺、澳劇場工作者。 西澳大學護理碩士、國立台北藝術大學戲劇學士(主修編劇)。邀稿請洽臉書「荒誕遊牧」,謝謝。