我很快就會回來談腦部,不過先說明另一種機器學習形式的例子,這種形式結合了神經網絡和一個新方法。電腦科學家大方的用神經科學的名詞來稱呼這類策略:增強原理(principle of reinforcement),最早有系統進行這方面研究的是偉大的俄羅斯生理學家帕夫洛夫(Pavlov),哈佛大學的史金納(B. F. Skinner)等後繼者發掘了其中的細節。電腦科學家稱這種這種演算法為「增強學習」(reinforcement learning)。「增強」的意思是某種行為會得到報償,如果電腦受到了報償,就會重複那種行為。這個過程讓正確的行為比較容易受到重覆,在神經網絡中的突觸會受到加強,你可以說這是一種反向傳播。增強學習與感知學習很像,只不過電腦會自己製造教師。
增強學習已經精通了一項極為艱難的技術:下西洋棋,以及更為困難的圍棋。現在電腦的棋力超強,完全勝過人類,而且他們還是自己教自己下棋。我想到的一個演算法是 Alpha Zero,在二○一八年耶誕節前夕於《自然》雜誌上發表研究結果。研究人員只教 Alpha Zero 圍棋的規則:棋盤的模樣、下棋的方式等,之後演算法會自己和自己下西洋棋或是圍棋。這種作法聽起來違背直覺,重點在於每個「自己」並不知道另一個「自己」的思考內容,只知道對方下的棋步。也沒有教師,只有一些事先輸入的規則,讓電腦知道下的棋步是好是壞,以及判定輸贏的標準。四個小時後,電腦就具備了世界級的水準。
這真是非常了不起的成就,而且不只可以讓 Alpha Zero 下各種棋類,還可以讓它做別的事情。谷歌人工智慧團隊的大衛.希爾瓦(David Silver)展示了 Alpha Zero 利用遙控器操縱玩具直升機進行飛行特技,看到那個直升機進行筒狀翻滾飛行(barrel roll),真的讓人確信它有能力。
-----廣告,請繼續往下閱讀-----
但是 Alpha Zero 真的比我的孫子聰明嗎?差得遠了(除非我孫子和它較量西洋棋)。電腦對於任務定義的範圍非常狹隘,而且體積要比我孫子的腦大多了,也不能光靠巧克力夾心餅乾就能運作。史密森尼學會(Smithsonian)的吳凱薩琳(Katherine Wu)估計,Alpha Zero 硬體運作功率約為一百萬瓦,我孫子的腦只需二十瓦。會在這裡提到神經網絡和增強學習,是因為這兩者都屬於概念驗證(Alpha Zero 內部採用了神經網絡),證明了這種邏輯運算的結果雖然距離腦還差得遠,但的確比較接近腦。
人類的腦部是否也採用了類似深度神經網絡或是 Alpha Zero 所運作的方式?當然有,只是慢得不得了。人腦這種電腦是演化經由無數時光打造而成,其中的突觸和連結都縮小到極致。如果由一堆計算晶片組成的笨重電腦能夠辦得到,人腦也可以。
裸蓋菇素的研究引起了美國中央情報局 CIA 的注意,不過不是因為什麼違法亂紀的問題,而是他們⋯⋯也想「瞭解更多」!1950年代 CIA 有項名為 MK-Ultra 2 的精神控制計畫,希望找到一些可以作為吐真劑、審訊和行為操縱工具的潛力藥物。他們的實驗藥物包括裸蓋菇素、迷幻藥 LSD、嗎啡、海洛因、一種萃取自仙人掌的致幻劑麥斯卡林等,並在監獄、醫院、學校,甚至從巧立名目的慈善基金會裡招募試驗對象。3
Single-dose psilocybin for treatment-resistant obsessive-compulsive disorder: A case report – PMC (nih.gov)↩︎
Single-dose psilocybin-assisted therapy in major depressive disorder: a placebo-controlled, double-blind, randomised clinical trial – eClinicalMedicine (thelancet.com)↩︎
Percentage of Heavy Drinking Days Following Psilocybin-Assisted Psychotherapy vs Placebo in the Treatment of Adult Patients With Alcohol Use Disorder: A Randomized Clinical Trial | Substance Use and Addiction Medicine | JAMA Psychiatry | JAMA Network↩︎
Long-term Follow-up of Psilocybin-facilitated Smoking Cessation – PMC (nih.gov)↩︎
Frontiers | Persisting Reductions in Cannabis, Opioid, and Stimulant Misuse After Naturalistic Psychedelic Use: An Online Survey (frontiersin.org)↩︎
由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?
ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。
一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!
中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?
讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。
-----廣告,請繼續往下閱讀-----
怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?
會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。
後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。
AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?
例如烏鴉:英國聖安德魯斯大學的科學家 Christian Rutz 長期研究南太平洋的新喀里多尼亞烏鴉( New Caledonian Crow ),牠們是少數能夠製造工具的鳥類,會把樹枝的葉子拔掉,做成鉤子來釣蟲,不同群體的作法也有差異。他發現島上不同烏鴉群體有不同的叫聲,可能是文化得以傳播的關鍵。身為烏鴉專家的他加入了 ESP 地球物種計畫,研究二十年前已經野外滅絕,現在只剩圈養個體的夏威夷烏鴉,他們用機器學習來比較圈養跟野生烏鴉的錄音,了解圈養是否改變了烏鴉的詞彙,例如注意威脅、求偶等重要的叫聲,是否已經在圈養環境中失去了,如果我們破譯這些叫聲,可能可以幫助這些烏鴉重新野化。