0

0
0

文字

分享

0
0
0

說到太空探索,有學習能力的機器人能為我們做什麼?——《離開太陽系》

時報出版_96
・2019/04/15 ・3466字 ・閱讀時間約 7 分鐘 ・SR值 549 ・八年級

編按:本文選自《離開太陽系》第七章:機器人上太空。今日的機器其實是過度美化的機器——它們能執行特定且反覆的有限任務,卻無法勝任涉及基本知識的複雜工作。過去數十年來,電腦運算能力每 18 個月就翻倍成長,我們能懷抱怎樣的期待?

圖/flickr

來到某個階段,我們應該會不得不指望由機器接手控制。
──英國計算機科學家亞倫.圖靈(Alan Turing)
倘若如此遙不可及的事會在接下來一兩百年內發生,我大概會非常驚訝。
──美國跨學科研究者道格拉斯.侯世達(Douglas Hofstadter)

DARPA 挑戰賽:製作可以清理核災高輻射現場的機器人

二○一三年,隸屬美國國防部、負責網路基礎建置工作的「高級研究計畫局」(Defense Advanced Research Projects Agency,DARPA)向全球科學家下戰帖:為二○一一年發生三座核電廠爐心熔毀的日本福島縣設計機器人,清理輻射外洩造成的嚴重混亂。電廠殘骸的輻射殘留極強烈,工作人員在致命輻射區待個幾分鐘就得離開,導致清理作業嚴重落後。據官方估計,該輻射汙染區至少得花三十至四十年才能清理完畢,作業成本高達一千八百億美元。

海嘯後的沿岸。圖/wikipedia

如果科學家有辦法做出毋須人類介入、能自動清理垃圾與廢棄物的機器人,無疑也可視為打造外星用自動機(協助打造月球基地或火星移居地)的第一步,即使在高輻射環境工作也不怕。

DARPA 意識到,日本福島縣會是應用最新 AI 技術的理想場所,於是決定推出獎金三百五十萬美元的「 DARPA 機器人挑戰」,徵選可執行基礎清理任務的機器人。(事實證明上一屆的 DARPA 挑戰賽極為成功,順利為開發「無人駕駛車輛」做好暖身工作。)這場競賽無疑也是完美的公共論壇,得以宣揚 AI 領域的相關進展。經過多年過度讚譽和誇大宣傳,此刻該是秀出真本事的時候了。世人將親眼目睹,機器人有能力執行較不適合人類處理的重要工作。

DARPA 訂下的規則不多,但意義明確:若想贏得大獎,機器人必須執行八項簡單任務,包括駕車、移除廢棄物、開門、關閉滲漏閥門、組接消防水喉及水帶、旋開或關閉閥門等。來自世界各地的文章條目湧入論壇,競相爭取榮耀和優渥獎酬。然而競賽結果並未順利開啟 AI 新紀元,倒是留下略嫌難堪的局面:

-----廣告,請繼續往下閱讀-----

參賽者多數無法完成任務,有些甚至直接在鏡頭前失敗出糗。

經過這次挑戰賽,顯示 AI 的複雜程度可能比「由上往下」的設計概念還要複雜許多。

機器不像人腦具有神經網路,所以無法學習

某些 AI 研究人員已徹底揚棄由上往下法,改為「由下往上」(bottom-up),選擇模仿大自然。這套替代策略或能另闢蹊徑,有希望造出能在外太空作業的機器人。出了 AI 實驗室,這類精細複雜的全能自動機其實處處可見,遠勝過人類目前設計過功能最強大的作品。這種全能自動機叫「動物」。小不嚨咚的蟑螂在森林裡熟門熟路、動作靈巧地鑽來竄去,尋找食物和交配對象。相較之下,咱們身形龐大、動作笨拙的機器人在行進期間,有時不小心還會刮破壁紙呢。

六十年前,達特茅斯研討會在理論推定上的潛在瑕疵,至今仍是 AI 領域揮之不去的陰影。人腦不是數位電腦。人腦不跑主程式、不跑子程式,沒有中央處理器也沒有晶片組,更不需要程式碼。若移除電腦的某顆電晶體,電腦大概就掛了,然而人類就算切掉半顆大腦,大腦還是能設法運作。

人類就算切掉半顆大腦,大腦還是能設法運作。圖/flickr

大自然實現運算奇蹟的方式是將大腦設計成一套神經網絡,一部學習機器。各位的筆記型電腦永遠不可能學習,今天的它跟昨天、跟去年一樣,沒有長進。但人腦不同。人腦在學習任何事物之後,理論上都會「重組」一遍,這也就是娃娃在還沒學習任何語言之前只會咿咿呀呀、我們在學會騎單車之前只能歪歪倒倒或急轉急煞之故。

-----廣告,請繼續往下閱讀-----

神經網絡依循「赫布定律」(Hebb’s rule),藉由「持續重複」來改善功能。赫布定律言明:

你執行某項工作的次數越多,與這項工作有關的神經傳導路徑就會使用得越頻繁,達到加強效果。

在神經科學領域中,有句話是這麼說的:「同時受激發的神經元亦彼此相連。」(Neurons that fire together wire together.)各位或許聽過一則老笑話,「『卡內基廳』怎麼去?」神經網絡解讀後回答:「練習、練習、再練習。」

舉例來說,常登山健行的人都曉得,假如某條山徑被踩得亂七八糟,就表示一定有很多人走過這條路,那麼這條路很可能就是最好的選擇。正確的途徑每使用一次就會強化一次。同樣的,你越常從事某項行為,和這項行為有關的神經路徑也會越頻繁受到強化。

圖/pixabay

這套概念非常重要,因為具學習能力的機器無疑是太空探索的關鍵要素。機器人將會在外太空持續遭遇全新、不斷變化的危險挑戰,被迫跟當今科學家設想不到的意外場景短兵相接。若只為機器人安裝應付固定緊急事件的處理程式,機器人將毫無用處,因為命運會扔給它一堆無法預料的難題。比方說,老鼠身上不可能預載能應付所有局面的基因密碼,因為牠一輩子要面對的狀況無法勝數,但牠的基因卻是有限的。

-----廣告,請繼續往下閱讀-----

假設火星某基地遭到流星雨襲擊,造成許多建物損毀。這時,配備神經網絡的機器人就能一邊處理這類意外狀況、一邊學習,並且越做越好。反觀傳統的「由上往下設計」型機器人,屆時大概只會癱在原地,無力應付意料之外的緊急狀況。

目標是打造具有學習能力的機器人

羅尼.布魯克斯(Rodney Brooks)將許多這類新概念導入研究。羅尼是麻省理工學院著名的「人工智慧實驗室」前實驗室主任。在訪談期間,他曾讚嘆像蚊子這麼簡單的小東西(那顆顯微等級的小腦袋少說也有上萬神經元),都能毫不費力在三維空間飛行,但我們卻得用無數複雜的電腦程式控制一具只會走路的機器人,而且還可能走得跌跌撞撞、蹣跚踉蹌。羅尼用他研發的「機器蟲」(bugbots)和「類昆蟲」(insectoids)率先開闢一條新路徑。透過學習,這兩種自動機都能像六腳昆蟲般移動。起初牠們總是摔個四腳朝天,不過每次嘗試都有進步、越走越好,漸漸能像真的昆蟲一樣順暢調控六隻腳。

這套將神經網路置入電腦的過程稱為「深度學習」(deep learning)。隨著這項科技逐漸發展,極可能在許多產業引發重大革新。在不久的將來,若您想看醫生、找律師,只消對著智慧牆或智慧腕錶下達「找(機器)醫師」或「找(機器)律師」的指令,程式軟體會立刻上網搜尋,提供語音醫療或語音法律服務。這類程式會透過重複的問題持續磨練學習,回答得越來越好──或甚至先發制人,滿足你的特殊需求。

深度學習也可能主導太空全能自動機的發展方向。未來數十年內,人類可能結合「由上往下」及「由下往上」兩套方式,初期先為機器人植入部分基本知識,但機器人也能利用神經網絡運作學習。它們將與人類一樣能透過經驗學習,直至精通「模式識別」和「運用常識」,終而能在三維空間內移動工具、掌控新情勢。不論在火星或整個太陽系、或甚至其他系外星球上,這群機器人都將成為建造、維持外星移居地不可或缺的重要角色。

-----廣告,請繼續往下閱讀-----
也許會有蜘蛛造型的機器人。圖/pixabay

未來,科學家也會針對各種特殊任務而設計不同的機器人。機器人可以像蛇一樣,學習在下水道系統內游泳,尋找滲漏或破損處。超級強壯的機器人則學習在建築工地負責所有重物搬運工作。飛行機器人的外型可能像鳥,它們要學的是調查與分析外星地貌。學會探勘地下熔岩通道的機器人可能外型像蜘蛛,因為這種多足生物能十分平穩地越過起伏不平的地面。還有,負責在火星冰帽提供遊歷探險服務的機器人,造型大概會像智慧型雪橇機車。至於必須潛入歐羅巴海洋採集樣本的機器人,說不定會設計成章魚的模樣。

為了探索外太空,機器人必須要能從兩方面學習:一是向隨時、隨機接觸的環境學習,二是吸收直接取得的資訊。
不過,倘若我們希望機器人能靠自己獨力建構整座城市,那麼 AI 領域就算發展到前述這種進階等級,可能還是不夠用。看來,打造「有複製能力」、並且具有「自我意識」的全能自動機,或許才是機器人這門科學的終極挑戰吧。

 

 

 

本文摘自《離開太陽系:移民火星、超人類誕生到星際旅行,探索物理學家眼中的未來世界》,2018 年 12 月,時報出版

文章難易度
時報出版_96
174 篇文章 ・ 35 位粉絲
出版品包括文學、人文社科、商業、生活、科普、漫畫、趨勢、心理勵志等,活躍於書市中,累積出版品五千多種,獲得國內外專家讀者、各種獎項的肯定,打造出無數的暢銷傳奇及和重量級作者,在台灣引爆一波波的閱讀議題及風潮。

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

-----廣告,請繼續往下閱讀-----

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
文章難易度

討論功能關閉中。

賴昭正_96
43 篇文章 ・ 56 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

0

5
0

文字

分享

0
5
0
來當一日語音設計師——如何設計好聽的合成語音?
雅文兒童聽語文教基金會_96
・2023/03/31 ・3727字 ・閱讀時間約 7 分鐘

-----廣告,請繼續往下閱讀-----

  • 文/邱彥哲|雅文基金會聽語科學研究中心 助理研究員

「Hey, Siri!」「OK, Google!」你曾經對手上的行動裝置說話嗎?你會要求他回答什麼呢?受限於目前的技術,你可能不會得到非常滿意的答案,但至少你會聽到一陣悅耳如同真人的語音吧!這項現今習以為常的技術,其實背後是由很多知識累積而成的。今天,讓我邀請你擔任一日「語音設計師」,從語音合成的技術開始,接著了解人類使用者的聽覺偏好,最後探索不同族群對聆聽合成語音的差異吧!

語音助理進駐現代人的日常生活。圖/freepik

語音合成(speech synthesis),是指以人工方式,製造出說話的聲音,可以理解為使機器裝置說出人話的技術。廣義來說,很多人也會把文字轉語音(Text to Speech,簡稱 TTS),含括在語音合成的範疇。

語音合成像樂高,但樂高有兩種

早在 1970 年代,人類就已經開始嘗試讓機器說話了。構思如何讓機器說話這件事,最直接的方式就是請真人錄一段聲音,然後在指定的時機播放。不過,面對複雜的語言情境,我們不可能錄下所有可能的回應 ; 而且若要這樣做,也實在太沒效率。幸好,借助電腦運算技術,可以讓人類向自動生成語音邁進一大步。合成的方法可以分成兩大類,分別是單元選取合成(Unit Selection Synthesis)及參數合成(Parametric Synthesis)[1]

單元選取合成這種方法,是將某個語言的語音成分分別以人聲錄製起來,再根據需要的目標語音進行組合。簡單來說,如果需要機器說發出「八」的語音,就必須單獨錄製「ㄅ」跟「ㄚ」。這個技術聽起來直觀方便,但也有缺點。就是事先必須建立一個龐大的語音資料庫,這個資料庫必須包含一個語言所有語音成分,此外,還必須錄下這些語音成分在所有情境下的變化,光想起來就令人有點頭痛。

-----廣告,請繼續往下閱讀-----

所以後者,參數合成,就顯得方便許多。這種方法,是直接將語音參數輸入電腦,讓電腦直接根據參數發出聲音,再組成語音。使用參數合成,就可以免去請人錄音的步驟,但直接使用電腦生成的語音,聽起來也會相對不自然。我們可以把這兩類方法想像成是在組合樂高,都是將語音成分一塊一塊組合起來,只是前者的樂高是自然材質(比如說木頭製),後者是人造材質(比如說塑膠)。

借助深度學習,電腦說話很自動

不過,無論是上述哪種方法,都還是需要不少的人工調校,才能使聲音逐步接近人類的語音。但還好,隨著電腦演算的進步,將深度學習(deep learning)運用在語音合成的領域,不但減少了人工成本,也大大提升的語音的擬人性。所謂深度學習,簡單來說就是一套模擬人類神經網絡的演算法。

使用這樣的演算法,設計者只需蒐集大量的語音資料,將資料「餵」給電腦,無須事先切分或分析,電腦便會自動學習其中的規律。如此一來,只要資料數量足夠龐大,電腦就可以自動產生符合自然規律且真實的語音。

但是,身為一位語音設計師,要進一步思考的是:「究竟要餵給電腦什麼呢?」這個問題又必須從使用者的角度來思考:「人類會偏好聆聽什麼樣的語音?」就像生產商品一樣,語音百百款,要能投其所好,才能讓使用者日日寸步不離,對吧!

-----廣告,請繼續往下閱讀-----

聆聽也要投其所好,性別頻率最重要

人類對不同性別及頻率有特殊的聆聽偏好。圖/freepik

關於合成語音的聆聽偏好,最先被討論的,是性別。雖然我們都知道機器沒有性別,但若希望他和人一樣跟你互動,投射性別是很自然的。不過有人就提出質疑:「為什麼我們的語音助理,都是女性的聲音呢?」美國西北大學梅迪爾傳播新聞整合行銷學院教授 Candy Lee 進行一項調查,測試了 8 種族裔的使用者,結果發現 64% 的人只偏好女性的聲音[2]

這樣看起來,預設為女性的聲音應該是沒問題的吧?不過,有人認為這是社會對「助理」的性別刻板印象所致;因為社會習慣女性作為「服務者」,所以在設計語音時,直覺地就挑選了女性聲音。雖然單就頻率方面,的確有研究指出,使用者確實是偏好頻率較高的合成語音[3],但若是一昧如此,也極有可能不斷複製性別偏見的印象[4]

有鑒於此,越來越多系統開始提供男性語音的選項。更甚者,哥本哈根研究團隊突發奇想,不以性別為選項,而是改以頻率作為調查標準。分析之後,他們得到一個最佳的頻率值──185 赫茲,設計出史上第一個無性別語音助理「Q」[5]。如此一來,青菜蘿蔔各有所好,聆聽的偏好也朝著多元共好的目標邁進!

聽得舒服,語速考量不能少

解決的性別與頻率的問題,還得注意甚麼呢?專門研究輔助溝通系統(Augmentative and Alternative Communication,簡稱 AAC)的專家想到了語速的問題。輔助溝通系統可以簡單理解成「溝通輔具」,是用以輔助溝通障礙者溝通的工具; 簡單如圖卡,複雜如電子溝通板,都算是其中一員。而像是電子溝通板這類,以螢幕顯示圖片,點擊後可以播放語音的輔具來說,合成語音是很關鍵的技術。

-----廣告,請繼續往下閱讀-----

這些溝通障礙專家想知道:「究竟什麼樣的語音速度,是最舒服的呢?」。

Sutton 與其研究團隊招募了 21 至 28 歲的年輕人與 61 至 79 歲的年長者,對合成語音進行語速評分[6]。語速的計算方式,採用每分鐘幾個字(Words per minute,簡稱 WPM)計算。他們將合成語音調整成不同的語速,範圍介於 120 到 250WPM 之間。結果發現,無論年輕人或年長者,偏好的語速都落在 150 到 200WPM 之間 ; 而年長者則是相對年輕人偏好較慢的語速。這樣的範圍,其實與過去研究提出的人類平均語速,相去不遠[7]

如果想知道不同語速聽起來感受如何,可以到合成語音軟體 Speechify[8]的網站試用,自行調整語速(以 WPM 計算),細細品味其中差異。或者,讓我為你朗讀,請聽示範(語速約 180WPM,內容為「我是彥哲,我是普通人。」)! 

可見,語音合成的技術雖是極為理性的領域,但若要設計出美妙的語音,對人類感性的理解,也絕對不能偏廢。

-----廣告,請繼續往下閱讀-----
圖/Pixabay

合成語音聆聽不易,考量族群差異最貼心

「所以,我只要想辦法把語音設計得很像人類就可以了吧?」你可能會這樣想,不過這裡頭還少了一個部分。現代社會提倡多元,客製化當道,每個人使用同個產品的狀況必然會有差異。

其實,即使是一般人,聆聽並理解合成語音是比自然語音更加困難的。Winters 及 Pisoni 發表的回顧研究指出:由於合成語音的清晰度普遍較差,因此聆聽者通常需要動用更多的認知資源(像是電腦需要動用較多記憶體),以及更多高層次的語言知識來彌補語音訊息的不完整[9]。如果對普通人來說是如此,對於某些特殊族群來說,想必有更加需要注意的地方。

比如說兒童。Mirenda 及 Beukelman 招募了成年人、10 至 12 歲以及 6 至 8 歲的兒童進行研究[10]。參與者的任務,是要在聽完自然語音及合成語音播放的八個詞彙之後,再將這八個詞彙回憶並說出來,回答無須按照順序。結果研究者發現,兩組兒童無論聆聽自然或合成語音,回憶詞彙的表現都比成人還差 ; 對於兩組兒童而言,記憶合成語音的表現又更不理想。

由此可知,兒童本身的記憶能力就較成年人弱,在聆聽合成語音時,可以說是是難上加難。

-----廣告,請繼續往下閱讀-----

另一個被探討的,是聽障族群。聽障族群最主要的困難,就在於聆聽。聆聽合成語音如果對聽常族群來說本來就比較困難,那對聽障族群應該是更加艱困的挑戰吧!Kangas 和 Allen 的研究[11]回答了這個問題。研究者請年長聽障者聆聽自然語音與合成語音,並請他們在聆聽後寫出聽到的單字。結果可想而知,聽障者確實在聆聽合成語音的部分表現得比較差。

看完上面的狀況,身為語音設計師的你,在設計語音的時候,是不是也應該從使用者的背景差異去調整你的語音呢?也許是調整語音的頻率,也許是調整語速,也可能,也可能有更多領域需要探索。唯有這樣,才能朝充滿人性又個人化的智慧語音邁進。

怎麼樣?沒想到要設計語音,希望機器說出一句話,背後涉及理性的技術與感性的考量,非常不容易吧!看完之後,你還是可以輕鬆地要求你的行動裝置說個笑話,唱首歌給你聽,自娛娛人;但也千萬別忘記,多留點心思,給這人類文明的結晶致上敬意。一日語音設計師,功成身退!

參考資料

  1. 詹姆士・弗拉霍斯。(2019)。從說話機器人到聊天機器人。聲控未來:引爆購物、搜尋、導航、語音助理的下一波兆元商機(孔令新譯,頁104-137)。商周出版。
  2. Marc Jacob.(2022/3/30). Medill Study Finds Preference for Female Voices and Local Accents. Northwestern Medill Local News Initiative.
  3. 顏宏旭,楊麗平,宋慧宏。(2020)。聽眾對語音合成導覽裝置聲音偏好之探討。戶外遊憩研究。33(4),83-107。
  4. West, M., Rebecca K., & Chew H.E. (2019). I’d Blush if I Could: Closing Gender Divides in Digital Skills Through Education.UNESCO & EQUALS Skills Coalition.
  5. GenderLess Voice. (2023/3/3) Meet Q [Web message].
  6. Sutton, B., King, J., Hux, K., & Beukelman, D. (1995). Younger and older adults’ rate performance when listening to synthetic speech. Augmentative and Alternative Communication, 11(3), 147-153.
  7. Walker, V. G. (1988). Durational Characteristics of Young Adults during Speaking and Reading Tasks. Folia Phoniatrica et Logopaedica, 40(1), 12–20.
  8. Speechify. (2023/3/3) Speechify.
  9. Winters, S. J., & Pisoni, D. B. (2004). Perception and comprehension of synthetic speech. Research on spoken language processing report, 26, 95-138.
  10. Mirenda, P. & Beukelman, D.R. (1987). A comparison of speech synthesis intelligibility with listeners from three age groups. Augmentative and Alternative Communication, 3, 120-128.
  11. Kangas, K.A. & Allen, G.D. (1990). Intelligibility of synthetic speech for normal-hearing and hearing impaired listeners. Journal of Speech and Hearing Disorders, 55, 751-755.
雅文兒童聽語文教基金會_96
56 篇文章 ・ 222 位粉絲
雅文基金會提供聽損兒早期療育服務,近年來更致力分享親子教養資訊、推動聽損兒童融合教育,並普及聽力保健知識,期盼在家庭、學校和社會埋下良善的種子,替聽損者營造更加友善的環境。

1

38
1

文字

分享

1
38
1
回到 AlphaGo 打敗棋王的那一天,看 AI 如何顛覆世界——《AI 製造商沒說的祕密》
時報出版_96
・2023/01/30 ・4915字 ・閱讀時間約 10 分鐘

-----廣告,請繼續往下閱讀-----

谷歌收購深度心智(DeepMind)幾週後,深度心智創辦人德米斯.哈薩比斯(Demis Hassabis)與其他幾位深度心智研究人員搭機來到北加州,與他們母公司的領袖舉行會議,並向他們展示深度學習如何破解「打磚塊」。

幕後推手——德米斯.哈薩比斯

會議結束後,哈薩比斯和谷歌創辦人賽吉.布林(Sergey Brin)聊了起來。他們聊著聊著發現有一共同的興趣:圍棋。布林表示當初他和賴利.佩吉(Larry Page)建立谷歌時,他沉迷在圍棋中,害得佩吉擔心他們根本無法成立公司。

哈薩比斯表示,如果他和他的團隊想要的話,他們能夠建造一套系統來打敗世界冠軍。「我覺得這是不可能的。」布林說道。就在這一刻,哈薩比斯下定決心要做到。

深度心智創辦人、英國人工智慧研究者——德米斯.哈薩比斯(Demis Hassabis)。圖/維基百科

「深度學習運動之父」傑弗瑞.辛頓(Geoffrey Hinton)將哈薩比斯比作羅伯.奧本海默(Robert Oppenheimer),二戰期間做出第一顆原子彈的曼哈頓計畫主持人。奧本海默是世界級的物理學家:他懂得眼前重大任務的科學原理,不過他更深諳激勵之道,他結合手下不斷擴大的科學家,將他們的力量合而為一,並且接納他們的弱點,一起為計畫目標努力。

-----廣告,請繼續往下閱讀-----

他知道如何感動男人(以及女人,包括辛頓的堂姊瓊安.辛頓),辛頓在哈薩比斯身上看到同樣的特質。「他主持 AlphaGo 就像奧本海默主持曼哈頓計畫,如果是別人來主持,他們可能就不會這麼快成功。」辛頓說。

揭開比賽序幕

深度心智的研究員們在 2014 年中曾發表一篇關於他們初期研究的論文,之後他們的研究規模大為擴大,並在第二年擊敗歐洲圍棋冠軍樊麾。此一結果震驚了全球圍棋界與人工智慧研究圈,但是 AlphaGo 對戰李世乭所造成的聲勢更是轟動。

IBM 的深藍超級電腦 1997 年在曼哈頓西城的一棟高樓裡擊敗世界頂尖的西洋棋高手,為電腦科學建立了一座里程碑,受到全球新聞界的廣為報導。但是若是與首爾的這場人機大戰相比,卻是小巫見大巫。在韓國——更別提日本與中國——圍棋是民族性的消遣活動。有超過二億人會觀看 AlphaGo 與李世乭的對弈,觀眾比超級盃多上一倍。

圍棋在中、日、韓具民族性,AlphaGo 與李世乭的對弈備受矚目。圖/維基百科

在總共五局對戰前夕的記者會上,李世乭誇口他能輕鬆獲勝:四比一或五比零。大部分的圍棋棋手也都有同感,雖然 AlphaGo 徹底擊敗樊麾,顯示這部機器是真正的贏家,但是樊麾的棋力遠不及李世乭。根據用來評估遊戲對戰能力的 ELO 等級制度,李世乭完全是在不同的等級。但是哈薩比斯卻認為這場人機大戰會有截然不同的結果。

-----廣告,請繼續往下閱讀-----

第二天下午,在展開第一局對戰的兩小時前,他與幾名記者共進午餐,他拿著一份《韓國先驅報》(Korea Herald),這是用桃色紙張印刷的韓國英文日報。他和李世乭的照片都出現在報紙的頭版上半部。他沒有想到竟會受到如此重視。

「我知道會受到關注,」這位像孩子般矮小,39 歲但已禿頂的英國人說道,「但是沒有想到會這麼多。」不過,在吃著餃子、韓式泡菜的午餐時,哈薩比斯表示他對這場棋賽「審慎樂觀」。他解釋,那些名嘴並不知道 AlphaGo 在十月的棋賽後仍在繼續苦練棋藝。

他和他的團隊初始是將三千萬步棋路輸入深度神經網路來教導機器學習圍棋,自此之後,AlphaGo 就開始不斷與自己對弈,並且記錄哪些棋路是成功的,哪些又是失敗的——其運作與實驗室用來破解雅達利老遊戲的系統類似。自擊敗樊麾以來這幾個月,AlphaGo 已和自己對弈了數百萬局;AlphaGo 持續自學圍棋,學習速度之快遠超過所有人類。

在四季飯店頂樓的賽前餐敘,谷歌董事長艾力克.施密特(Eric Schmidt)坐在哈薩比斯的對面,以他一貫冷峻的態度闡述深度學習的優點。一度有人稱他為工程師,他糾正他們,「我不是工程師,」他說道,「我是電腦科學家。」

-----廣告,請繼續往下閱讀-----
艾力克.施密特(Eric Schmidt)2001~2011 年間在 Google 擔任 CEO。圖/維基百科

他回憶他在 1970 年代研讀電腦科學時,人工智慧看來前景一片大好,但是隨著 1980 年代過去,進入 1990 年代,這樣的美景從未實現。如今,終於實現了。「這一科技,」他說道,「力量強大,引人入勝。」他表示,人工智慧不只是辨識照片的戲法,同時也代表谷歌 750 億美元的網際網路事業與其他無數的產業,包括保健產業。

機器與人類高手對決

在第一局,哈薩比斯是在私人觀賞室與走廊另一頭的 AlphaGo 控制室之間來回兩頭跑。控制室滿是個人電腦、筆記型電腦與平面顯示幕,這些設備全都與遠在太平洋彼端的谷歌數據中心內部數百台電腦相連。一支谷歌團隊在比賽前一週就已架設一條專屬的超高速光纖電纜直達控制室,以確保網際網路暢通無阻。

不過結果卻顯示控制室根本不需要進行多少操控:幾過多月的訓練之後,AlphaGo 已能完全獨力作業,不需要人為的幫助。同時,就算哈薩比斯與團隊想幫忙,也無用武之地。他們沒有一人的圍棋棋力達到大師級的水準,他們只能觀看棋局。

「我無法形容有多緊張,」深度心智研究員說道,「我們不知道該聽誰的。一邊是評論員的看法,你同時也看到 AlphaGo 的評估。所有的評論員都有不同的意見。」

-----廣告,請繼續往下閱讀-----

在第一天的棋賽,深度心智團隊與谷歌的重要人物都親眼目睹 AlphaGo 獲勝。

賽後記者會上,李世乭面對來自東、西方數百名記者與攝影師表示他感到震驚。這位 33 歲的棋士透過口譯員說道:「我沒想到 AlphaGo 下棋竟能夠如此完美。」經過逾四小時的對弈,AlphaGo 證明自己的棋力可與全球最厲害的高手匹敵,李世乭表示他被 AlphaGo 殺了個措手不及,他在第二局會改變策略。

左為代替 AlphaGo 移動棋子的深度心智台灣研究員黃士傑,右則為李世乭。圖/YouTube

神來一筆的第三十七手

第二局對弈進行一小時後,李世乭起身離開賽場,走到露台抽菸。坐在李世乭對面,代替 AlphaGo 移動棋子的是來自台灣的深度心智研究員黃士傑,他將一枚黑子落在棋盤右邊一大塊空地上單獨一枚白子的側邊下方,這是該局的第三十七手。

在角落的評論室內,西方唯一的圍棋最高段九段棋手邁克.雷蒙(Michael Redmond)忍不住多看了一眼確認,然後他告訴在線上觀看棋賽的兩百多萬英語觀眾:「我真的不知道這是高招還是爛招。」他的共同評論員克里斯.戈拉克(Chris Garlock)則表示:「我認為下錯了。」他是一本網路圍棋雜誌的資深編輯,同時也是美國圍棋協會的副會長。

-----廣告,請繼續往下閱讀-----

李世乭在幾分鐘後返回座椅,然後又緊盯著棋盤幾分鐘。他總共花了 15 分鐘才做出回應,在棋局的第一階段他有兩小時的時間,而這一手占用了他不少時間——而且此後他再也沒有找回節奏。在經過逾四小時的對弈後,他投子認輸,他連輸兩局了。

第三十七手也讓樊麾大感詫異,他在幾個月前遭到 AlphaGo 徹底擊敗,自此之後他就加入深度心智,在 AlphaGo 與李世乭對弈前擔任它的陪訓員。他從來沒有擊敗過這部人工智慧機器,但是他與 AlphaGo 的對弈也讓他對棋路的變化大開眼界。事實上,他在遭 AlphaGo 擊敗後的幾週內,與(人類)高手對弈連贏六場,他的世界排名也升至新高。

現在,他站在四季飯店七樓的評論室外面,在第三十七手落子幾分鐘後,他看出了此一怪招的威力。「這不是人類會下的棋路,我從來沒有看過有人這麼下,」他說道,「太美了。」他不斷地重複說道,太美了、太美了、太美了。

第二天上午,深度心智的研究員大衛.席瓦爾溜進控制室,他想知道 AlphaGo 如何做出第三十七手的選擇。AlphaGo 在每一局對弈中都會根據它所受過數千萬種人類落子變化的訓練,來計算人類做出此一選擇的機率,而在第三十七手,它算出的機率是萬分之一。

-----廣告,請繼續往下閱讀-----
AlphaGo 在對弈中會根據千萬種落子變化,計算出人類下此一步棋的機率。圖/YouTube

AlphaGo 知道這不是專業棋手會選擇的路數,然而它根據與自己對弈的數百萬次經驗——沒有人類參與的棋局——它仍是這麼做了;它已了解儘管人類不會選擇這一步,這一步棋仍是正確的選擇。「這是它自己發現的,」席瓦爾說道,「透過它的內省。」

這是一個既甜美又苦澀的時刻,儘管樊麾大讚此一步棋是神來之筆,但是一股鬱悶之情席捲四季飯店,甚至整個韓國。一位中國記者表示,儘管他為 AlphaGo 贏得第一局感到高興,可是現在他深感沮喪。

第二天,一位在首爾彼端經營一家新創企業育成中心的韓國人權五亨表示他也感到悲傷,這並非因為李世乭是一位韓國人,而是因為他是人類,「這是全人類的轉捩點,」權五亨說道,他的幾位同事點頭表示同意,「它讓我們了解人工智慧真的已在我們眼前——也讓我們了解到其中的危險。」

在那個週末,此一鬱悶的情緒只增不減。李世乭第三局也輸了,等於輸掉整個棋賽。坐在賽後記者會的桌子後面,李世乭懺悔之情溢於言表。「我不知道今天要說什麼,但是我首先要表達我的歉意,」他說道,「我應該拿出更好的成績,更好的結局,更好的比賽。」但是坐在李世乭身邊的哈薩比斯卻發現,自己衷心期盼這位韓國棋手在接下來的兩局中至少能贏一局。

-----廣告,請繼續往下閱讀-----

AlphaGo 認輸的那一局

在第四局的七十七手,李世乭再度陷入長考,就和第二局的情況一樣,但是這一回他考慮的時間更久。棋盤中間有一堆棋子,黑白相間,他有近二十分鐘只是緊盯著這些棋子,抓著後頸前後擺動。最後,他將他的白子落在棋盤中央的兩枚黑子之間,將棋勢一分為二,AlphaGo 方寸大亂。

在每一場對弈中,AlphaGo 都會不斷重新計算勝率,並且顯示在控制室的一台平面顯示幕上。

在李世乭落子後——第七十八手——這部機器的反擊很差,在顯示幕上的勝率立刻大降。「AlphaGo 累積到那一步之前的所有戰略都算是報銷了,」哈薩比斯說道,「它必須重新再來。」就在此刻,李世乭抬頭看著對面的黃士傑,彷彿他擊敗的是這人,不是機器。自此之後,AlphaGo 的勝率一路下跌,在近五個小時後,它投子認輸。

DeepMind 製作的 AlphaGo 與李世乭對弈紀綠片。/YouTube

兩天後,哈薩比斯穿過四季飯店的大廳,解釋 AlphaGo 為什麼會輸。AlphaGo 當時是假設沒有人類會這樣下第七十八手,它計算出來的機率是萬分之一——這是一個它熟悉的數字。

就像 AlphaGo 一樣,李世乭的棋力也達到一個新境界,他在棋賽最後一天的私人聚會場合中這樣告訴哈薩比斯。他說與機器對弈不僅讓他重燃對圍棋的熱情,同時也讓他茅塞頓開,使他有了新想法。「我已經進步了。」他告訴哈薩比斯,一如幾天前的樊麾,李世乭之後與人類高手對弈,連贏九場。

AlphaGo 與李世乭的對弈,使得人工智慧在世人眼前大爆發,它不僅是屬於人工智慧領域與科技公司,同時也是屬於市井小民的里程碑。在美國如此,在韓國與中國更是如此,因為這些國家視圍棋為人類智慧結晶的巔峰。這場棋賽彰顯出科技的力量與其終將超越人類的恐懼,同時也帶來樂觀的前景,此一科技往往會以出人意表的方式推動人類更上層樓。儘管馬斯克等人警告其中的危險性,但是這段時期人工智慧的前景一片光明。

裘蒂.英賽恩(Jordi Ensign)是佛羅里達州一位四十五歲的程式設計師,她在讀完棋賽報導後出去在身上紋了兩幅刺青,她在右臂內側紋了 AlphaGo 的第三十七手——左臂紋了李世乭的第七十八手。

——本文摘自《AI製造商沒說的祕密: 企業巨頭的搶才大戰如何改寫我們的世界?》,2022 年 8 月,時報出版,未經同意請勿轉載

所有討論 1
時報出版_96
174 篇文章 ・ 35 位粉絲
出版品包括文學、人文社科、商業、生活、科普、漫畫、趨勢、心理勵志等,活躍於書市中,累積出版品五千多種,獲得國內外專家讀者、各種獎項的肯定,打造出無數的暢銷傳奇及和重量級作者,在台灣引爆一波波的閱讀議題及風潮。