在2012年,加州的 Google X Lab 用一千台電腦架成的 Google Brain,展現了前所未有的機器學習能力。研究者們準備了一千萬張從 Youtube 隨機截圖的靜止畫面給 Google Brain「觀看」。研究者沒有在系統中預設任何圖像知識、也沒有在圖片上附加任何說明標籤,就讓機器自己發掘圖庫所隱含的規則。在三天的「觀看」學習之後,Google Brain 成功地將這些 Youtube 截圖分成了三類:人臉、身體、還有──貓。
而史丹佛大學的研究者 Andrew Ng,便是在同時間說服 Google 公司,讓他使用其公司的豐富資源來建立了 Google Brain。借助強勁的硬體與資料庫,一舉將深度運算技術推向新的紀元:發現潛在規則、自發性分類。這樣的技術比語音轉譯還難上許多,主要是因為其成果已經脫離的單純的資料對應轉換,而進化成在大型資料庫中找尋抽象分類與規則。也因此更接近人類的智能。
除了 Google Brain 這樣,因尖端科技公司出資贊助而在資源上佔有絕對優勢的深度學習系統,Andrew Ng 也研發出不需要一千台電腦就可以消化大量資訊的系統。他表示,使用圖形處理器 (graphics processing units, GPUs),就可以架設出功能類似、但成本更為低廉的運算系統來進行深度學習。
除了圖片分類或語音轉譯,深度學習還有更多的用途。例如,Geoffrey Hinton 的學生 George Dahl 就應用深度學習技術,打敗了默克(Merck)藥廠現行的系統,成功提高了對特定化學分子間反應的預測力,以便更有效率地找出有用的藥物。他的團隊藉由這個深度學習系統,提升了約15%的預測力,更獲得了默克藥廠懸賞的2萬美金獎金。 Paskolos internetu su vekseliu iš žmonių automobiliui be užstato, paskolų refinansavimas, SMS greitieji kreditai
此外,麻省理工學院的 Sebastian Seung 也利用深度學習來分析腦部切片、以建立三維空間的腦圖,以及神經束的走向。這樣的系統除了更快以外,也節省了大量的人力。華盛頓大學的 William Stafford Noble 也應用深度學習系統來預測胺基酸鏈會組成如何的蛋白質、並可進一步預測此蛋白質的性狀。而這兩種應用的共同點都是其背後龐大的資料數量,以及深度學習所能提供的預測性。
人工智能的未來
雖然深度學習已經被應用到尖端科學研究及日常生活當中,而 Google 已經實際搭載在核心的搜尋功能之中。但其他知名的人工智能實驗室,對於深度學習技術的反應並不一致。
解決的性別與頻率的問題,還得注意甚麼呢?專門研究輔助溝通系統(Augmentative and Alternative Communication,簡稱 AAC)的專家想到了語速的問題。輔助溝通系統可以簡單理解成「溝通輔具」,是用以輔助溝通障礙者溝通的工具; 簡單如圖卡,複雜如電子溝通板,都算是其中一員。而像是電子溝通板這類,以螢幕顯示圖片,點擊後可以播放語音的輔具來說,合成語音是很關鍵的技術。
另一個被探討的,是聽障族群。聽障族群最主要的困難,就在於聆聽。聆聽合成語音如果對聽常族群來說本來就比較困難,那對聽障族群應該是更加艱困的挑戰吧!Kangas 和 Allen 的研究[11]回答了這個問題。研究者請年長聽障者聆聽自然語音與合成語音,並請他們在聆聽後寫出聽到的單字。結果可想而知,聽障者確實在聆聽合成語音的部分表現得比較差。
West, M., Rebecca K., & Chew H.E. (2019). I’d Blush if I Could: Closing Gender Divides in Digital Skills Through Education.UNESCO & EQUALS Skills Coalition.
Sutton, B., King, J., Hux, K., & Beukelman, D. (1995). Younger and older adults’ rate performance when listening to synthetic speech. Augmentative and Alternative Communication, 11(3), 147-153.
Walker, V. G. (1988). Durational Characteristics of Young Adults during Speaking and Reading Tasks. Folia Phoniatrica et Logopaedica, 40(1), 12–20.
Winters, S. J., & Pisoni, D. B. (2004). Perception and comprehension of synthetic speech. Research on spoken language processing report, 26, 95-138.
Mirenda, P. & Beukelman, D.R. (1987). A comparison of speech synthesis intelligibility with listeners from three age groups. Augmentative and Alternative Communication, 3, 120-128.
Kangas, K.A. & Allen, G.D. (1990). Intelligibility of synthetic speech for normal-hearing and hearing impaired listeners. Journal of Speech and Hearing Disorders, 55, 751-755.
因此到了 1981 年,曾經是全世界最賺錢、最受歡迎品牌的大型電腦計算機公司 IBM(International Business Machines)終於被迫進入個人電腦市場。IBM 的聲名很快地使個人電腦在消費群眾裡達到臨界量,但那時使用者必須記得電腦語言及程式名字才能執行。
圖/筆者提供
1984 年,蘋果電腦公司(Apple Computers)推出了 Macintosh 後,個人電腦市場才真正開始起飛。Macintosh 導入電腦鼠標,其「所見即所得」(WYSIWYG, what you see is what you get)界面更讓使用電腦變得非常簡單[1]:只要會按鼠標就好,不必再記那些電腦語言及程式名字。隔年,微軟(Microsoft Corporation[2])也推出了具鼠標及「所見即所得」界面的 Windows 操作系統後,儘管個人電腦成為主流還需要幾年時間,但毫無疑問地個人電腦時代已經來臨了!
開始時各計算機網絡並沒有一種標準的方式來相互通信。科技學家終於在 1983 年 1 月 1 日建立了「傳輸控制協議/互聯網協議」(TCP/IP)的一新通信協議,使不同網絡上的不同類型計算機終於可以相互「交談」,現在的互聯網於焉誕生,因此當天被認為是互聯網的官方生日。阿帕網和國防數據網(Defense Data Network)後來也正式改用 TCP/IP標準,因此所有網絡現在都可以通過一種通用語言連接起來。
-----廣告,請繼續往下閱讀-----
1989 年 11 月,第一個提供商業互聯網服務(ISP, internet service provider)公司 The World 在美國出現。儘管當時電話撥號連接只能以每秒 5 萬 6 千位元的慢得令人痛苦的速度下載[3],與現在的所謂寬帶(broadband)之至少 2500 萬位元的速度相比,真是小巫見大巫,但在兩年就產生了廣泛的消費者基礎。1991 年,美國國家科學基金會(NSF)看到該公司打開了這似乎再也關閉不了的閘門,終於解除了對商業 ISP 的禁令。
圖/筆者提供
1989 年,為了滿足世界各地大學和研究所的科學家對自動化信息共享的需求,英國計算機學家伯納斯-李(Tim Berners-Lee)爵士在瑞士歐洲核子研究中心(CERN)提出了萬維網(WWW, World Wide Web)的構想:在互聯網上建立一種可以透過「超文本鏈接」(hyperlink)將文檔連接到其它文檔的信息系統,使用戶能夠從一個文檔移到另一個文檔來搜索信息。