0

0
0

文字

分享

0
0
0

AlphaGo既不是起點也不會是終點,從頭述說人工智慧走過的這70年

活躍星系核_96
・2016/03/10 ・6900字 ・閱讀時間約 14 分鐘 ・SR值 550 ・八年級

  • 作者:沐陽浸月(中國科學院自動化所複雜系統國家重點實驗室研究生,主攻機器人與人工智慧。)
  • 原文刊載於雷鋒網,經作者同意後授權轉載。

前不久,在人工智慧領域發生了兩件大事,一個就是是偉大的人工智慧先驅馬文 ·明斯基教授逝世,一個是 Google AlphaGo 擊敗歐洲圍棋冠軍,職業圍棋二段樊麾。(2016/3 編按:2016年3月,在一場五番棋比賽中,AlphaGo於前三局以及最後一局均擊敗頂尖職業棋士李世乭,成為第一個不藉助讓子而擊敗圍棋職業九段棋士的電腦圍棋程式。)

50e38fe40d2e419f962148746c7c30b6

馬文·明斯基教授是幾乎見證了從人工智慧作為一門學科的興起直至今日成就的所有大風大浪的人,或者可以說教授本人就是這些大風浪的前鋒,他對人工智慧發展的影響意義十分深遠。而 Google AlphaGo 此次取得的成就,也可以算是人工智慧領域一次里程碑式的創舉,它的成功標誌著人工智慧領域又進入了一個新高度。

這篇文章,我們將從馬文·明斯基還是哈佛大學本科生的時候講起,一直到今日 AlphaGo 的勝利,梳理一下人工智慧是怎樣從初見萌芽一步一步走到今日的輝煌成就的。

56adfdfedbfb3

要是從宏觀的角度來講,人工智慧的歷史按照所使用的方法,可以分為兩個階段,分水嶺大概在 1986 年神經網絡的回歸——

-----廣告,請繼續往下閱讀-----

前半段歷史中,我們主要使用的方法和思路是基於規則的方法,也就是我們試圖找到人類認知事物的方法,模仿人類智慧和思維方法,找到一套方法,模擬出人類思維的過程,解決人工智慧的問題。

後半段的歷史,也就是我們現在所處的這個時期,我們主要採取的方法是基於統計的方法,也就是我們現在發現,有的時候我們不需要把人類的思維過程模擬出一套規則來教給計算機,我們可以在一個大的數量集裡面來訓練計算機,讓它自己找到規律從而完成人工智慧遇到的問題。

這個轉化也可以用一個形象的例子來描述,就像我們想造出飛機,就觀察鳥是怎麼樣飛的,然後模仿鳥的動作就行,不需要什麼空氣動力學什麼的,這種思想在人類歷史上也被稱為“鳥飛派”。但是我們都知道,懷特兄弟造出飛機靠的是空氣動力學,而不是仿生學。

不過我們不能就因為這一點就笑話人工智慧前半段各位研究人員和前輩的努力和心血,因為這是人類認知事物的普遍規律,其實現在也有不少人會認為,電腦可以讀懂文字、看懂圖片靠的是依靠和我們人類一樣的認知過程。

56adfe066a2f6

在研究基於規則的探索中,人工智慧經歷了三個主要階段——興起、繁盛和蕭條。會有這樣的過程,一個重要原因是基於規則方法的局限性。好了,那我們就先扒一扒這段歷史。

一、萌芽階段

人工智慧的萌芽時期大概出現在 20 世紀中葉,第一位需要介紹的人物便是馬文·明斯基(Marvin Lee Minsky)。明斯基於1946年進入哈佛大學主修物理專業,但他選修的課程相當廣泛,從電氣工程、數學,到遺傳學、心理學等涉及多個學科專業,後來他放棄物理改修數學。

-----廣告,請繼續往下閱讀-----

1950年,也就是明斯基本科的最後一年,他和他的同學Dean Edmonds建造了世界上第一台神經元網路模擬器,並命名其為SNARC(Stochastic Neural Analog Reinforcement Calculator)。這台計算機是由3000個真空管和B-24轟炸機上一個多餘的自動指示裝置來模擬40個神經元組成的網絡的。後來,明斯基又到普林斯頓大學攻讀數學博士學位,並以「神經網絡和腦模型問題」為題完成博士論文,但是當時的評審委員會並不認為這可以看做是數學。

480px-Marvin_Minsky_at_OLPCb
馬文·明斯基。圖 / By Bcjordan @ wiki

明斯基的這些成果雖然可以被稱作人工智慧的早期工作,但是鑑於當時的明斯基還是一個青澀的毛頭小子,所做的博士論文都不能得到相應的認可,所以影響力有限。

接著上場的第二位人物影響力就大很多,那就是電腦科學之父艾倫·圖靈(Alan Mathison Turing),他是被認為最早提出機器智慧設想的人。圖靈在1950年的時候(也就是明斯基還在讀本科的時候)在雜誌《思想》(Mind)發表了一篇名為「計算機器與智能」的文章,在文章中,圖靈並沒有提出什麼具體的研究方法,但是文章中提到的好多概念,諸如圖靈測試、機器學習、遺傳算法和強化學習等,至今都是人工智慧領域十分重要的分支。

56ae00212bc23
圖靈在1950年的時候在雜誌《思想》(Mind)發表的名為「計算機器與智能」的文章。

介紹完以上兩大人物,接下來標誌著人工智慧作為一個獨立領域而誕生的盛會——達特茅斯研討會就要粉墨登場了。

-----廣告,請繼續往下閱讀-----

不過在介紹達特茅斯研討會之前,我們不得不介紹這第三位重量級的人物,那就是約翰·麥卡錫,因為他正是這次研討會的發起人。約翰·麥卡錫於1948年獲得加州理工學院數學學士學位,1951年獲得普林斯頓大學數學博士學位。然後又在那裡作為老師工作了兩年,接著短暫地為斯坦福大學供職後到了達特茅斯大學,正是這個時期,它組織了達特茅斯研討會。

在這次大會上,麥卡錫的術語人工智慧第一次被正式使用,所以麥卡錫也被稱作人工智慧之父。其實麥卡錫在達特茅斯會議前後,他的主要研究方向正是電腦下棋。

640px-John_McCarthy_Stanford
約翰·麥卡錫。圖 / By null0 @ wiki

下棋程序的關鍵之一是如何減少計算機需要考慮的棋步。麥卡錫經過艱苦探索,終於發明了著名的α-β搜索法,使搜索能有效進行。α-β搜索法說核心就是,算法在採取最佳招數的情況下允許忽略一些未來不會發生的事情。說的有點抽象,我們來舉個十分簡單的例子。

假如你面前有兩個口袋和一個你的敵人,每個口袋放著面值不等的錢幣,你來選擇口袋,你的敵人決定給你這個口袋裡哪張面值的錢。假設你一次只能找一隻口袋,在找口袋時一次只能從裡面摸出一次。當然你希望面值越大越好,你的敵人自然希望面值越小越好。假如你選擇了第一個口袋。現在我們從第一個口袋開始,看每一張面值,並對口袋作出評價。比方說口袋裡有一張5元的和一張10元的。如果你挑了這只口袋敵人自然會給你5元的,10元的就是無關緊要的了。

-----廣告,請繼續往下閱讀-----

現在你開始翻第二個口袋,你每次看一張面值,都會跟你能得到的最好的那張面值(5元)去比較。所以此時你肯定就去找這個口袋裡面面值最小的,因為只要最少的要比5元好,那麼你就可以挑這個口袋。假如你在第二個口袋摸出一張1元的,那麼你就不用考慮這個口袋了,因為如果你挑了這個口袋,敵人肯定會給你1元面值的,那當然要選擇最小面值的5元的那個口袋啦。

56ae00c73e2ea
基於α-β剪枝算法的智能五子棋

雖然有點繞,不過我覺得你應該大概已經理解了這個思路。這就是α-β搜索法,因為這種算法在低於或者超過我們搜索中的α或者β值時就不再搜索,所以這種算法也稱為α-β剪枝算法。這種算法至今仍是解決人工智慧問題中一種常用的高效方法。

當年IBM的深藍國際象棋程序,因為打敗世界冠軍卡斯帕羅夫而聞名世界,它靠的正是在30個IBM RS/6000處理器的並行計算機上運行的α-β搜索法。

但是需要注意的是,前不久的Google AlphaGo,由於棋盤是19×19的,幾乎所有的交叉點都可以走子,初始的分支因子為361,這對於常規的α-β搜索來說太令人生畏了,所以別看名字裡面帶了一個α(Alpha,有可能這個名字是為了紀念麥卡錫的α-β搜索算法),AlphaGo採用的是卻是蒙特卡洛搜索樹(MCTS),它是一種隨機採樣的搜索樹算法,它解決了在有限時間內要遍歷十分寬的樹而犧牲深度的問題。

-----廣告,請繼續往下閱讀-----

56ae0197820b0

後來麥卡錫有從達特茅斯搬到了MIT,在那裡他又做出了三項十分重要的貢獻。第一個是他定義了高級語言Lisp語言,從此Lisp語言長期以來壟斷著人工智慧領域的應用,而且人們也有了可以拿來用的得力工具了,但是稀少而且昂貴的計算資源仍是問題。於是麥卡錫和他的同事又發明了分時技術。然後,麥卡錫發表了題為「有常識的程序」的文章,文中他描述了一種系統,取名為意見接收者,任務是使用知識來搜索問題的解,這個假想也被看成是第一個完整的人工智慧係統。

同年,明斯基也搬到了MIT,他們共同創建了世界上第一座人工智慧實驗室——MIT AI Lab實驗室。儘管後來麥卡錫和明斯基在某些觀點上產生了分歧導致他們的合作並沒有繼續,但這是後話。

56ae02a91385d
MIT AI Lab實驗室

二、人工智慧的誕生

好了,前期的一些大人物介紹完了,讓我們一起回到1956年那個意義非凡的夏天。

那年,28歲的約翰·麥卡錫,同齡的馬文·明斯基,37歲的羅切斯特和40歲的夏農一共四個人,提議在麥卡錫工作的達特茅斯學院開一個頭腦風暴式的研討會,他們稱之為「達特茅斯夏季人工智慧研究會議」。參加會議的除了以上這四位,還有6位年輕的科學家,其中包括40歲的赫伯特·西蒙和28歲的艾倫·紐維爾。

-----廣告,請繼續往下閱讀-----

在這次研討會上,大家討論了當時計算機科學領域尚未解決的問題,包括人工智慧、自然語言處理和神經網絡等。人工智慧這個提法便是這次會議上提出的,上文也有提到。在這個具有歷史意義的會議上,明斯基的SNARC,麥卡錫的α-β搜索法,以及西蒙和紐維爾的「邏輯理論家」是會議的三個亮點。前面已經對明斯基的SNARC,麥卡錫的α-β搜索法有所介紹,下面我們再來看一下西蒙和紐維爾的「邏輯理論家」又是什麼。

西蒙和紐維爾均是來自卡內基梅隆大學(當時還叫卡內基技術學院)的研究者,他們的研究成果在這次盛會上十分引人注意。「邏輯理論家」是西蒙和紐維爾研究出來的一個推理程序,他們聲稱這個程序可以進行非數值的思考。然後在這次研討會之後不久,他們的程序就能證明羅素和懷特海德的《數學原理》第二章的大部分定理。但是歷史往往對新鮮事物總是反應遲緩,他們將一篇與邏輯理論家合著的論文提交到《符號邏輯雜誌》的時候,編輯們拒絕了他們。

56ae06a12be70

我們現在來看看這個研討會的成果,或者說叫意義。遺憾的是,由於歷史的局限,這個世界上最聰明的頭腦一個月的火花碰撞,並沒有產生任何新的突破,他們對自然語言處理的理解,合在一起甚至不如今天一位世界上一流大學的博士畢業生。但是這次研討會卻讓人工智慧領域主要的人物基本上全部登場。在隨後的20年,人工智慧領域就被這些人以及他們在MIT、CMU、斯坦福和IBM的學生和同事們支配了。

我們看看這10個人,除了夏農,當時其實大多數都沒什麼名氣,但是不久之後便一個個開始嶄露頭角,其中包括四位圖靈獎的獲得者(麥卡錫,明斯基,西蒙和紐維爾),這四位也是我上文主要介紹的四個人。當然,夏農也不用得圖靈獎,作為信息論的發明人,他在科學史上的地位也圖靈也差不多了。

-----廣告,請繼續往下閱讀-----
ClaudeShannon_MFO3807
克勞德·夏農。圖 / By Konrad @ wiki

三、短暫的繁榮與困境

從這次會議之後,人工智慧迎來了它的一個春天,因為鑑於計算機一直被認為是只能進行數值計算的機器,所以,它稍微做一點看起來有智能的事情,人們都驚訝不已。

因為鑑於當時簡單的計算機與編程工具,研究者們主要著眼於一些比較特定的問題。例如 Herbert Gelernter 建造了一個幾何定理證明器,可以證明一些學生會感到棘手的幾何定理;阿瑟·薩繆爾編寫了西洋跳棋程序,水平能達到業餘高手;James Slagle 的SAINT程序能求解大學一年級的閉合式微積分問題;還有就是結合了多項技術的積木世界問題,它可以使用一隻每次能拿起一塊積木的機器手按照某種方式調整這些木塊。

56ae07351a3e5
馬文·明斯基與他的積木機器人

雖然這些早期的人工智慧項目看起來擁有著巨大的熱情和期望,但是由於方法的局限性,人工智慧領域的研究者越來越意識到他們所遇到的瓶頸和困難,再加上沒有真正令人振奮人心的項目出來而導致資助的停止,人工智慧陷入了一個低潮。

產生這些現實困難的原因主要有三點。

第一點是大部分早期程序對要完成的任務的主題一無所知。

就拿機器翻譯來說,給程序一個句子,會用的方法只是進行句法分割然後對分割後的成分進行詞典翻譯,那這樣就很容易產生歧義。例如I went to the bank,bank既有銀行也有河岸的意思,如果只是單純的分割加單詞翻譯,這句話根本沒法解釋。

第二點是問題的難解性

上面我已經提到,早期的人工智慧程序主要解決特定的問題,因為特定的問題對象少,複雜度低啊,但是一旦問題的維度上來了,程序立馬就捉襟見肘了。

第三點就是程序本身的結構就有問題。

例如明斯基在1969年證明了兩輸入的感知機連何時輸入是相同的都判斷不了。

56ae07f2b07bb
感知機模型

綜上,由於種種困難,再加上資助的減少,人工智慧步入了寒冬。這便是人工智慧歷史的上半段。

四、人工智慧的重生

上個世紀80年代中期,當初於1969年由Bryson和Ho建立的反傳學習算法被重新發明,然後統計學在人工智能領域的使用以及良好的效果也讓科學界為之一振。於是在新的結構和新的方法下,人工智慧又重獲新生。

首先興起的是語音識別領域,在這個方面的成就一個重要的原因是隱馬爾可夫模型的方法開始主導這個領域。隱馬爾可夫模型包含「隱含」和「馬爾可夫鏈」兩個概念,馬爾可夫鍊是具有這樣一種特性的鏈條,就是現在的狀態只和前一個狀態有關,而和再往前的狀態沒有關係。所以我們遇到這樣一個鏈條的時候,我們可以隨機選擇一個狀態作為初始狀態,然後按照上述規則隨機選擇後續狀態。

「隱含」的意思則是在這個馬爾可夫鏈上再加一個限制就是,任意時刻的狀態我們是不可知的,但是這個狀態會輸出一個結果,這個結果只和這個狀態相關,所以這個也稱為獨立輸出假設。

通過這麼一解釋我們就能看出,隱馬爾可夫模型是基於嚴格的數學理論基礎,這允許語音研究者以其他領域中發展數十年的數學成果為依據。其次這個模型的這種隨機性可以通過大量的真實語音進行訓練,這就保證了性能的強健性

56ae083a61d96
隱馬爾可夫模型簡圖

在馬爾可夫鏈的基礎上還誕生了一個以對不確定性知識進行有效表示和嚴格推理的形式化方法——貝葉斯網絡。貝葉斯網絡是一個加權的有向圖,是馬爾可夫鏈的拓展。馬爾可夫鏈保證了網絡中的每一個狀態只跟與其直接相連的狀態有關,而跟與它間接相連的狀態沒有關係,那麼這就是貝葉斯網絡。在這個網絡中,每個節點的概率,都可以用貝葉斯公式來計算,貝葉斯網絡因此得名。

貝葉斯網絡極大地克服了20世紀60年代和70年代概率推理系統的很多問題,它目前主導著不確定推理和專家系統中的人工智慧研究。而且這種方法允許根據經驗進行學習,並且結合了經典人工智慧和神經網絡最好的部分。所以極大的推動的人工智慧領域走向現在我們正處的這個巔峰時代。

56ae085d8a42d
一個簡單的貝葉斯網絡。雨水影響灑水器是否有動作,且雨水及灑水器二者均可影響草是否濕潤。

除了 這種算法上的革新,還有兩個重要推動因素就是互聯網的興起以及極大數據集的可用性。就像我們用Siri的時候必須聯網一樣,人工智慧係統基於Web的應用變得越來越普遍;我之前在文章《2015年,機器人界發生了哪些神奇瘋狂的故事?(下)》中介紹的HitchBOT,它可以拍照、自動識別路人的語言,並將回答顯示在屏幕上,這個能力也是通過在網絡上搜索相應的答案而實現的。

由於我們現在採用的方法已經基本上變為是基於概率的方法,所以我們便需要有大量的數據集對我們的系統進行訓練,以完成監督學習。而現在的互聯網環境讓這種極大數據集的獲得變得越來越方便和容易。就如我們所熟知的ImageNet,ImageNet是一個帶有標記信息的圖片庫,裡面的圖片均已經由人對圖片內容進行了標記。它就好比是一個用於測試計算機視覺系統識別能力的「題庫」,包含超過百萬道「題目」。題目由圖像和對應的單詞(80%為名詞)組成,考察的方式是計算機視覺系統能否識別圖像中的物體並返回正確的單詞。ImageNet使用訓練題對計算機視覺系統進行「培訓」,然後用測試題測試其識別能力。

56ae08a0536d8
ImageNet 數據集

又如AlphaGo,在DeepMind的主頁裡,AlphaGo是這樣被介紹的:它是一種電腦玩圍棋的新方法,這種方法運用了基於深度神經網絡的蒙特卡洛搜索樹,而這個深度神經網絡一方面是通過運用人類專家級圍棋棋局進行監督學習來訓練,另一方面還通過程序通過電腦自己與自己博弈的增強學習來進行訓練,可見AlphaGo的成果也離不開通過學習人類專家級棋譜進行監督學習的這個大量數據集的使用。

56ae08b98be2d
DeepMind 的主頁裡 AlphaGo 的頁面

今天這篇文章,我們從人工智慧的萌芽一直到今天AlphaGo打敗擊敗歐洲冠軍樊麾職業二段這個里程碑式的事件截止,介紹了人工智慧能走到今天這個成就的一路的艱難險阻與大風大浪。我相信,隨著計算機運算能力以及更加優化的算法,以及大數據集和數據挖掘等技術的幫助,人工智慧的路一定會繼續高歌猛進。

-----廣告,請繼續往下閱讀-----
文章難易度
活躍星系核_96
778 篇文章 ・ 127 位粉絲
活躍星系核(active galactic nucleus, AGN)是一類中央核區活動性很強的河外星系。這些星系比普通星系活躍,在從無線電波到伽瑪射線的全波段裡都發出很強的電磁輻射。 本帳號發表來自各方的投稿。附有資料出處的科學好文,都歡迎你來投稿喔。 Email: contact@pansci.asia

0

0
0

文字

分享

0
0
0
從「衛生紙」開始的環保行動:一起愛地球,從 i 開始
鳥苷三磷酸 (PanSci Promo)_96
・2024/12/03 ・1592字 ・閱讀時間約 3 分鐘

你是否也曾在抽衛生紙的瞬間,心頭閃過「這會不會讓更多森林消失」的擔憂?當最後一張衛生紙用完,內心的愧疚感也油然而生……但先別急著責怪自己,事實上,使用木製品和紙張也能很永續!只要我們選對來源、支持永續木材,你的每一個購物決策,都能將對地球的影響降到最低。

二氧化碳是「植物的食物」:碳的循環旅程

樹木的主食是水與二氧化碳,它們從空氣中吸收二氧化碳,並利用這些碳元素形成枝葉與樹幹。最終這些樹木會被砍伐,切成木材或搗成紙漿,用於各種紙張與木製品的製造。

木製品在到達其使用年限後,無論是被燃燒還是自然分解,都會重新釋放出二氧化碳。不過在碳循環中,這些釋出的二氧化碳,來自於原本被樹木「吸收」的那些二氧化碳,因此並不會增加大氣中的碳總量。

只要我們持續種植新樹,碳循環就能不斷延續,二氧化碳在不同型態間流轉,而不會大量增加溫室氣體在大氣中的總量。因為具備循環再生的特性,讓木材成為相對環保的資源。

但,為了木製品而砍伐森林,真的沒問題嗎?當然會有問題!

-----廣告,請繼續往下閱讀-----
從吸碳到固碳的循環

砍對樹,很重要

實際上,有不少木材來自於樹木豐富的熱帶雨林。然而,熱帶雨林是無數動植物的棲息地,它們承載著地球豐富的生物多樣性。當這些森林被非法砍伐,不僅生態系統遭到破壞,還有一個嚴重的問題–黃碳,也就是那些大量儲存在落葉與土壤有機質中的碳,會因為上方森林的消失重新將碳釋放進大氣之中。這些原本是森林的土地,將從固碳變成排碳大戶。

不論是黃碳問題,還是要確保雨林珍貴的生物多樣性不被影響,經營得當的人工永續林,能將對環境的影響降到最低,是紙漿和木材的理想來源。永續林的經營者通常需要注重環境保護與生態管理,確保砍下每顆樹木後,都有新的樹木接續成長。木材反覆在同一片土地上生成,因此不用再砍伐更多的原始林。在這樣的循環經營下,我們才能不必冒著破壞原始林的風險,繼續享用木製品。

人工永續林的經營者需要注重環境保護與生態管理,確保砍下每顆樹木後,都有新的樹木接續成長。

如何確保你手中的紙張來自永續林?

如果你擔心自己無意中購買了對環境不友善的商品,而不敢下手,只要認明FSC(森林管理委員會)認證與 PEFC(森林認證制度)認證標章,就能確保紙漿來源不是來自原始林。並且從森林到工廠、再到產品,流程都能被追蹤,為你把關每一張紙的生產過程合乎永續。

只要認明 FSC(森林管理委員會)認證與 PEFC(森林認證制度)認證標章,就能確保紙漿來源不是來自原始林。

家樂福「從 i 開始」:環境友善購物新選擇

不僅是紙張,家樂福自有品牌的產品都已經通過了環保認證,幫助消費者在日常生活中輕鬆實踐環保。選擇 FSC 與 PEFC 標章只是第一步,你還可以在購物時認明家樂福的「從 i 開始」價格牌,這代表商品在生產過程中已經符合多項國際認證永續發展標準。

-----廣告,請繼續往下閱讀-----

「從 i 開始」涵蓋十大環保行動,從營養飲食、無添加物、有機產品,到生態農業、動物福利、永續漁業、減少塑料與森林保育,讓你每一項購物選擇都能與環境保護密切相關。無論是買菜、買肉,還是日常生活用品,都能透過簡單的選擇,為地球盡一份力。

選擇 FSC 與 PEFC 標章只是第一步,你還可以在購物時認明家樂福的「從 i 開始」價格牌
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
212 篇文章 ・ 312 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

1
0

文字

分享

0
1
0
AI 能像人類一樣思考?諾貝爾物理學獎研究助力人工智慧模擬人類大腦
PanSci_96
・2024/11/14 ・2117字 ・閱讀時間約 4 分鐘

-----廣告,請繼續往下閱讀-----

即使再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?畢竟電腦的電子元件和我們大腦中的神經細胞結構截然不同。再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?

錯,可以。

2024 年諾貝爾物理學獎跌破所有專家的眼鏡,頒給了兩位研究機器學習的科學家——約翰·霍普菲爾德(John Hopfield)和傑佛瑞·辛頓(Geoffrey Hinton)。他們以「人工」的方法打造了類神經網路,最終模擬出生物的「智慧」,奠定了當代深度學習的基礎。

為什麼解決人工智慧發展瓶頸的,竟然會是物理學?物理要怎麼讓 AI 更像人類?

-----廣告,請繼續往下閱讀-----
歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

從巴甫洛夫的狗到赫布理論:理解學習的基礎

為了解答這個疑問,我們需要一些背景知識。

20 世紀初,俄羅斯心理學家巴甫洛夫發現,狗在食物還沒入口前,就會開始分泌唾液。他進行了一系列實驗,改變食物出現前的環境,比如讓狗習慣在聽到鈴聲後馬上得到食物。久而久之,狗只要聽到鈴聲,就會開始分泌唾液。

大約 50 年後,神經科學家赫布(Donald Hebb)提出了一個假說:大腦中相近的神經元,因為經常同時放電,會產生更強的連結。這種解釋稱為「赫布理論」,不僅奠定了神經心理學的發展,更成為現代深度學習的基礎。

然而,赫布理論雖然描述了鄰近神經元的關係,卻無法解釋大腦如何建構出如此複雜的聯想網路。

-----廣告,請繼續往下閱讀-----

霍普菲爾德網路:物理學家對神經網路的貢獻

然而,赫布理論雖能描述神經元之間的關係,卻缺乏數學模型。物理學家約翰·霍普菲爾德從數學家約翰·康威(John Conway)的「生命遊戲」(Game of Life)中獲得靈感,試圖建立一個可以在電腦上運行的記憶系統。

霍普菲爾德受「生命遊戲」啟發,嘗試建立電腦記憶系統。圖/envato

「生命遊戲」由數學家康威(John Conway)發明,玩家開始時有一個棋盤,每個格子代表一個細胞,細胞可以是「活」或「死」的狀態。根據特定規則,細胞會根據鄰居的狀態決定下一次的生存狀態。康威的目的是展示複雜的系統不一定需要複雜的規則。

霍普菲爾德發現,這個遊戲與赫布理論有強大的關聯性。大腦中的大量神經元,在出生時處於初始狀態,經過刺激後,神經元間的連結會產生或斷裂,形成強大的記憶系統。他希望利用這些理論,創造一個能在電腦上運行的記憶系統。

然而,他面臨一個難題:赫布理論沒有明確的數學模型來決定神經元連結的規則。而在電腦上運行,必須要有明確的數學規則。

-----廣告,請繼續往下閱讀-----

物理學的啟發:易辛模型

霍普菲爾德從物理學的研究中找到了類似的模型:易辛模型(Ising Model)。這個模型用於解釋鐵磁性物質的磁性特性。

在鐵磁性物質中,電子具有「自旋」,自旋產生磁矩。電子的自旋方向只有「向上」或「向下」,這就像生命遊戲中細胞的「生」或「死」。鄰近的電子會影響彼此的自旋方向,類似於細胞之間的互動。

易辛模型能用數學描述電子間的相互影響,並通過計算系統能量,得出自旋狀態的分佈。霍普菲爾德借用了這個概念,將神經元的互動視為電子自旋的互動。

他結合了康威生命遊戲的時間演化概念、易辛模型的能量計算,以及赫布理論的動態連結,創造了「霍普菲爾德網路」。這讓電腦能夠模擬生物大腦的學習過程。

-----廣告,請繼續往下閱讀-----

突破瓶頸:辛頓與波茲曼機

約翰·霍普菲爾德於1982年發明聯想神經網路,即「霍普菲爾網路」。圖/wikimedia

然而,霍普菲爾德網路並非完美。它容易陷入「局部最小值」的問題,無法找到系統的全局最優解。為了解決這個問題,加拿大計算機科學家傑佛瑞·辛頓(Geoffrey Hinton)提出了「波茲曼機」(Boltzmann Machine)。

辛頓將「模擬退火」的概念引入神經網路,允許系統以一定的機率跳出局部最小值,尋找全局最優解。他還引入了「隱藏層」的概念,將神經元分為「可見層」和「隱藏層」,提高了網路的學習能力。

受限波茲曼機(Restricted Boltzmann Machine)進一步簡化了模型,成為深度學習的基礎結構之一。這些創新使得 AI 能夠更有效地模擬人類的思維和學習過程。

AI 的未來:跨學科的融合

霍普菲爾德和辛頓的工作,將物理學的概念成功應用於人工智慧。他們的研究不僅解決了 AI 發展的瓶頸,還奠定了深度學習的基礎,對現代 AI 技術產生了深遠的影響。因此,2024 年諾貝爾物理學獎頒給他們,並非意外,而是對他們在跨學科領域的重大貢獻的肯定。

-----廣告,請繼續往下閱讀-----

AI 的發展,離不開物理學、生物學、數學等多學科的融合。霍普菲爾德和辛頓的工作,正是這種融合的典範。未來,隨著科學技術的進步,我們有理由相信,AI 將越來越接近人類的思維方式,甚至可能超越我們的想像。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

PanSci_96
1259 篇文章 ・ 2384 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

1

1
1

文字

分享

1
1
1
讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員
研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

-----廣告,請繼續往下閱讀-----
所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3620 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook