0

4
1

文字

分享

0
4
1

如何斷開中文峰峰相連的詞彙鎖鍊,讓電腦能讀懂字裡行間的語意?

研之有物│中央研究院_96
・2018/07/13 ・7302字 ・閱讀時間約 15 分鐘 ・SR值 536 ・七年級
  • 執行編輯|林婷嫻  美術編輯|張語辰

「自然語言處理」是什麼?

讓電腦擁有理解人類語言的能力,就是自然語言處理(Natural Language Processing,縮寫 NLP)。然而,人和人之間就會誤會彼此的語言了,電腦要如何理解語義?中研院資訊科學研究所的馬偉雲助研究員說明:以中文來說,最基本的,要先教電腦學會「斷詞」和「理解詞的意思」。

電腦和人腦的語言不同,那要如何讓電腦擁有理解人類語言的能力呢?source:maxpixel

如何理解一種語言?

小時候學習中文,會背誦課文詞彙的注釋,在作業簿練習這個詞的寫法。到了國中時期學英文,面對像天書般的英文文章,會把不懂的單字圈起來,拿出字典查這個字的意思。為什麼這樣做?

因為,詞彙是語言的最小單位。

然而,中文有一個特殊現象,就是「詞」和「詞」之間沒有邊界,整句串起來像條鎖鏈,不像英文有空格將每個字斷開。所以,若要理解一篇中文文章,必須先學會斷詞,而要學會斷詞,必須先知道這是一個詞、以及這個詞的意思。否則可能會產生這種令人「難過」的情況:

中文的詞沒有邊界,若誤解「詞的意思」與「句法結構」,會寫出這般造句練習。 資料來源/網路趣聞

那麼,問題來了,如果聰明的人類都會誤解複雜的語言,那麼只懂 011000110 的電腦有可能學會斷詞、甚至理解同一個詞在不同上下文的意思嗎?其實,這就是自然語言處理(Natural Language Processing)的研究目標。本文專訪中研院中文詞知識庫小組計畫主持人馬偉雲,聊聊自然語言處理究竟是什麼。

馬偉雲,是一名對於「讓機器擁有理解語言的能力」深感著迷的計算機科學家。 攝影/張語辰

「自然語言」有多自然?

我們先來了解「自然語言」的定義,與「程式語言」有什麼差別。

程式語言 vs. 自然語言 圖說設計/林婷嫻、張語辰

簡要來說,程式語言是人類為了與計算機溝通,而設計的人工語言;而自然語言的自然,是相對於「人工」語言的「自然」,換句話說,自然語言是人們溝通時自然地發展出來的語言。「自然語言處理」的目標,就在於讓電腦理解、或是運用人類語言。

如何教電腦學會一種語言?

若要讓電腦理解人類的語言,以中文來說,分成兩步驟:

第一步是斷詞、理解詞;第二步則是分析句子,包含語法及語義的自動解析。

自然語言處理透過這兩個步驟,將複雜的語言轉化為電腦容易處理、計算的形式。早期是人工訂定規則,現在則是讓機器自己學習。

早期的方式是基於一套詞彙資料庫,用程式語言寫好人工訂定的規則,讓電腦依指令做出反應。但這種人工方式不可能包含所有語言的歧異性,例如,當同樣的詞在不同上下文產生不同意思,就會和原本的人工規則相互牴觸。

1980 年代末期,自然語言處理引進機器學習(Machine Learning)的演算法,不再用程式語言命令電腦所有規則,而是建立演算法模型,讓電腦學會從訓練的資料中,尋找資料所含的特定模式和趨勢。我們實驗室──中研院的「中文詞知識庫小組」團隊──就是利用機器學習的演算法,讓電腦學會從訓練的資料中,自動歸納出語言的特性。

自然語言處理的演變。 圖說設計/林婷嫻、張語辰

訓練電腦處理自然語言,需要什麼樣的資料?

我們團隊成員涵蓋中研院語言所、資訊所的研究人員,所以我們也充分利用這兩個領域的專長。

首先,語言學家為九萬多個中文詞彙定義了完整的語法、以及語義表達方式,並且也標明詞彙之間的關係,例如:「蝴蝶」和「昆蟲」具備「前者是後者的一種」這樣的詞彙關係;「醫生」和「病人」具備「前者醫治後者」這樣的詞彙關係。這樣的表達構建了中文的知識圖譜,我們稱為「廣義知網」。

詞彙的語法、語義定義完畢後,接下來我們就依這些規則,大量分析文章中的每個句子、每個詞彙的語法和語義,並將分析的結果記錄下來 ,這就是「語料標注」的工作。這些標注的語料,提供給電腦系統進行機器學習,讓電腦學會自動歸納、找出語言的語法以及語義。

我們的想法是,既然語言學家已分析了某些語言結構的邏輯,那麼基於這些存在的語言學知識來教電腦歸納出語言的特性,是一種相當自然合理的方式。

只是我們大多數情況下,不會直接教電腦學會語言學上的規則,給它一條魚,不如給它一支釣竿。我們是給電腦看語言學家分析完成的大量結果,由電腦利用機器學習而自動歸納得到 「規則」, 並以參數的方式(請別擔心,一定是人們看得懂的形態),儲存在資訊學家所設計的模型當中。這種電腦自動學出來的模型,能夠很好地解決語言歧異性,也不會有人工寫死規則的問題。

電腦可以認識所有「詞」嗎?

語言的詞彙組合無窮無盡,不可能將所有詞都收進資料庫中訓練電腦。當電腦面對與時俱進的新詞,例如「郭書瑤」、「班奈狄克 · 康柏拜區」、「漫撕男」、「非典」,電腦就無法辨識、理解這個詞。

通常未知詞可分為幾種類型:可能是人名、可能是複合詞、或可能是專有名詞。

我們團隊將「中文斷詞」這個工作,切分成下圖 7 個步驟,每個步驟都是一種演算法模組,處理一種特別的問題。

中文斷詞系統的處理步驟。
資料來源/〈未知詞擷取作法〉,作者:馬偉雲

教電腦擷取人名,是相對單純的工作,因為人名的結構有跡可循。

中文人名通常是三個字、或兩個字,甚至能參考百家姓、某一年考生的所有名字來建立資料庫,例如「慧」、「婷」常出現在女性人名中,而「雄」這個字常用在男性人名中。從統計機率來看,有些字則是不可能作為人名使用。人名的前後文也會有一些暗示訊息,例如「XXX 表示…」、「 XXX 做了…」、「執行長 XXX」。當電腦分析訓練用的文章資料,自己找出這些規律,電腦就能學會判斷某些未知詞是否為人名。

此外,「複合詞」也是舉不勝舉的未知詞來源。

中文的複合詞,由相當隨性的詞性結構組成,例如「趣味性」,隨意置換字尾,就變成「趣味感」或是「趣味化」。複合詞的字差一點點,就能延伸許多詞意,這讓電腦需辨識的詞彙量變得無比龐大。這部分透過前輩們的研究,漸漸找出複合詞的組成邏輯,整理在中央研究院漢語平衡語料庫(標記了一千多萬個詞彙),也整理出常用詞首、詞尾字資料庫。

目前斷詞系統中的複合詞主要是針對「名詞複合詞」,但其實我們也在「動詞複合詞」上也累積了不少研究。舉一個實例來說明,例如「開聊」和「聊開」:

「開」的複合動詞結構舉例。
資料來源/〈現代漢語複合動詞之詞首詞尾研究〉,作者:邱智銘、駱季青、陳克健

從語言學的角度,動詞是句子的核心,也是最重要的中心語。「開」這個字有著動詞中心語的起始功能(inchoative),然而放在詞首、詞尾不同位置會產生些微差異。

除了人名、複合詞,新聞或網路文章還會看到許多新創的專有詞,例如:非典(SARS 重症非典型肺炎的簡稱)、河蟹(意指封鎖、掩蓋負面消息)。這類專有詞可以透過 bottom-up merging algorithm(合併字詞演算法)處理。

以「河蟹」為例,透過合併字詞演算法分析新聞、網路文章等資料,電腦會發現:通常「河」後面就是「蟹」,「蟹」前面就是「河」,「河蟹」兩個字一起出現的統計機率蠻高的,而且整組詞意無法單用「河」或「蟹」的各別字意取代。因此,電腦就會判斷「河蟹」最可能是個專有詞、並做出斷詞。

此外,就算是字典當中已經有的詞彙,有時候仍然會有不同斷詞的情況,我們必須根據上下文決定哪一種斷法才是正確的。例如:「努力才能成功」的「才能」應該切分為兩個詞彙:「才」和「能」,語義接近英文的 “to make”;而「他的領導才能很突出」的「才能」是一個詞彙,不可切分,在此表達英文的 “ability” 的意思。

語言學家會把這樣子的斷詞標注清楚,供電腦進行機器學習。經過不同語句的大量標注,電腦最後會自己學會利用「才能」的上下文做判斷。 資料來源/馬偉雲說明

電腦理解「詞」了,那「句子」呢?

學會斷詞、並理解個別的詞義之後,下一步我們就要使電腦學會理解整個句子的意思。例如「張三打李四」和「李四被張三打」,兩個句子雖然句型不同,但是語義卻是一樣。

我們怎麼表達句子的語義呢?答案是透過「結構樹」。

「張三打李四」和「李四被張三打」,兩個句子的結構樹。 資料來源/馬偉雲說明

我們將每個詞彙集結成片語,再把每個片語標記上它所扮演的語義角色(semantic role)。「張三」在兩個結構樹中都是「打」的發動者(agent)的角色,而「李四」都是「打」的對象(goal)的角色。如此一來,透過包含語義角色的結構樹,我們可以得知這兩個句子擁有相同的語義。

先透過人工訂好結構樹的表達,下一步就是要利用機器學習,使電腦能夠自動針對每一句產生出正確的結構樹。歷年來,中文詞知識庫小組從中央研究院漢語平衡語料庫抽取句子,經由電腦初步剖析成結構樹,再加以人工修正檢驗,共整理了六萬多個中文句結構樹圖,標注了各個中文句的語法以及語義角色,這些就形成機器學習的訓練材料,使得電腦剖析結構樹的工作越做越好。

自然語言處理的進展到了這裡,斷詞有解,句子結構及語義有解,但還有另一個難題──曖昧不清的指代詞。

寫作時為了避免某些詞重複出現,會使用別的指代詞,像是「他」、「某某職稱」等等。用句子舉例,「張三打李四,他很痛」,覺得痛的人究竟是誰?除了考量語句結構,也需基於常識和上下文來理解。

若要教電腦理解指代詞、處理「指代消解」(Coreference Resolution)的問題,有兩種方式。一種較傳統,用程式語言寫好所有判定的人工規則,好處是較精準,壞處是有其侷限,因為列舉的規則不可能對應至世間所有指代情形。另一種是機器學習的方式,當電腦分析所有訓練文章的上下文發現:幾乎都是被打的李四感到痛,「他 = 李四」這個相關性的機率即為最高,進而做為電腦日後判斷的準則。

自然語言處理的方法,有因「深度學習」而改變嗎?

近年來蓬勃發展的深度學習(Deep Learning),提出了另一種方法來教電腦表達詞彙。這種方法是將詞彙轉換為「詞向量」,也就是 Word Vector 或稱 Word Embedding,作法是讓電腦閱讀大量文章,利用前後文的統計特性,慢慢學習出每一個詞彙的詞向量,不必利用任何語言學知識。

詞向量的概念。(其中的向量數字為舉例) 資料來源/馬偉雲 圖說重製/林婷嫻、張語辰

舉例來說,傳統的符號學中,「蝴蝶」、「瓢蟲」、「爬」是不同的三個詞彙。但改成用向量思考,「蝴蝶」和「瓢蟲」的向量距離就會比較近,「蝴蝶」和「爬」的向量距離就會比較遠,隨著訓練的文本越來越多,電腦可以自動調整各個詞彙的向量,解決訓練資料不足的問題,並提升電腦的抽象化思考。

運用「詞向量」的好處是,很多時候針對特定的自然語言處理任務,訓練資料是不足的。因為許多字詞的語義,在人類語感上明明意思很接近、可以相通,但對機器來說,詞彙符號(也就是字元)不同,就是截然不同的詞彙,造成各個詞彙在訓練資料的統計佔比相當低,無法得到足夠信心水準的分析結果。

然而,訓練過程中,若我們以「詞彙向量」作統計,在向量空間上,有些字詞間的向量很靠近,團結力量大,就會發現相近的詞彙向量在訓練資料的統計佔比大幅提升,解決了訓練資料不足的困境。同時,詞彙向量在深度學習的模型之中,被視為可修改的參數,所以也具備了語義(詞彙向量)自動調整的能力。

You shall know a word by the company it keeps.

John Rupert Firth 這句古老的語言學名言,恰巧能說明「詞向量」的思維。其實每個詞就像一個人,若想了解這個人,可以觀察他身旁的人是什麼模樣,也就是物以類聚的概念。

我們團隊目前嘗試結合「傳統詞彙符號」與「詞向量」,共同從事自然語言處理的任務、以及教電腦表達知識。傳統詞彙符號的好處,在於提供清晰的解釋與穩定的應用,而詞向量可以解決訓練資料不足的困境,並且提供語義(詞彙向量)自動調整的能力。這兩者的長處互補,結合起來具有很高的學理價值、更多應用突破。

自然語言處理,有什麼用?

其實,自然語言處理的用途,已經悄悄在我們身邊幫上許多忙。

自然語言處理,常見的後續應用。 資料來源/李宏毅演講 圖說重製/林婷嫻、張語辰

例如,運用「摘要文本大綱」的能力,電腦可以擔任助手,幫助連睡覺時間都快沒有的醫生閱讀最新的醫學報告、篩選醫學文獻,找出眼前這位病患的病徵,可能跟哪些疾病相關、或是服用某種藥物可能有哪些副作用。像是 2017 年台北醫學大學,就導入 IBM 的 Watson for Oncology(人工智慧治療輔助系統),協助醫師診斷致病機制複雜的癌症。

現在許多人遇到地震、颱風等災害,第一步是上社群媒體發佈消息,例如哪裡的大樓倒了、哪些親友失聯了、各地需要捐助多少物資等等。若運用自然語言處理,讓電腦自動搜集、分析這些社群媒體的文本,就能幫助整合災情、協助救援。

另外,輿情分析聊天機器人等熱門應用,其基礎也需要先讓電腦理解人類所使用的語言,掌握其中的句法結構、分析字裡行間的情緒,才能統計輿情、或讓機器人做出適當的聊天回應。

自然語言處理,是時間的累積。從民國 75 年到現在,中研院資訊所和語言所合作建立許多語料庫和線上系統,我們很歡迎公家機關和公益團體無償使用,也歡迎有需求的單位來討論合作方式。

為什麼會對「讓電腦擁有語言能力」感到著迷?

我很幸運十幾年前有機會進入這個領域,那時候很驚嘆:怎麼會有一種學問,可以把「語言學」和「計算機科學」結合在一起。

語言是很複雜的現象,語言也代表人類的智慧,像是我們的思緒、意識,很多都是透過語言來展現。

1999 年那時候,我在交大電腦科學與資訊工程系碩士班是做語音辨識,那時候我只懂「聲音訊號」的處理,很好奇「語言」這塊怎麼讓電腦了解。當時和中研院接觸,知道中研院做了很多自然語言處理的工作,例如蒐集大量語料,用計算機的方式把語言的統計特性找出來。

後來我來到中研院服國防役,從研究助理做起,跟著陳克健老師研究中文的斷詞切分,也逐漸發現原來理解語言有非常多面向,包含:語音、詞彙本身的學問、語法結構(這句話怎麼說才合理)、語義解讀(這句話是什麼意思),還有「語用」,也就是什麼時候講這句話、為什麼要這樣講。

2006 年之後,我到美國哥倫比亞大學的電腦科學系讀碩博士,除了博士論文是做機器翻譯,也在那裡的實驗室研究電腦的 Q&A 系統:問電腦問題,讓電腦讀過一堆文獻後回答,這些文獻資料包含中文、英文和阿拉伯文,三種語言混合運用。因為國防上的需求,美國國防部需要透過電腦幫助,了解這些文本在說什麼。

有些對人工智慧發展的疑慮是,在近年電腦深度學習的運算過程中,不知道為什麼會這樣得出結果、難以控制電腦。但現在有一種發展方向,叫做「可解釋人工智慧」(Explainable AI),明確了解電腦運算過程,藉以優化表現、降低人們擔憂。舉例來說,當 IBM 的 Watson for Oncology 建議醫生要開刀治療病患,醫生也得知道電腦分析文本的過程、為什麼會下這個決策,不是電腦控制人而已。

至於之前曾傳出 Facebook 的 AI 對話失控,其實是過度擔憂。

因為這只是 Facebook 工程師教電腦學會「談判」的過程中,電腦自動將對話內容表達地極簡再極簡、能通就好。

當初唸書時,「自然語言」很冷門,跟別人說也不知道這是什麼東西,因為那時人工智慧在商業上還沒有實際應用,和我們的生活還很遙遠。選擇這個領域並不是因為有遠見,只是基於好奇參與、覺得這很有趣,過程就看到自然語言處理(NLP)蓬勃發展至今。

參考資料

本著作由研之有物製作,原文為〈斷開中文的鎖鍊!自然語言處理(NLP)〉以創用CC 姓名標示–非商業性–禁止改作 4.0 國際 授權條款釋出。
本文轉載自中央研究院研之有物,泛科學為宣傳推廣執行單位

在網站上看不過癮?研之有物出書啦!

研之有物:穿越古今!中研院的25堂人文公開課》等著你來認識更多中研院精彩的研究。





文章難易度
研之有物│中央研究院_96
240 篇文章 ・ 1908 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

4
0

文字

分享

0
4
0
想學機器學習、深度學習、資料科學、人工智慧的人照過來! 22 個線上社群網站助你一臂之力~
活躍星系核_96
・2020/04/21 ・3064字 ・閱讀時間約 6 分鐘 ・SR值 543 ・八年級

  • 文 / Elsa│弱弱開發女子,在東京的開發者人生。
    2011年研究所畢業,2014年來日工作。不只寫關於開發的文章,也寫美食、在日工作樣貌、在日生活訊息。

機器學習資料科學的轉行潮

資料科學家、機器學習工程師被喻為 21 世紀最性感的職業。個人認為這份職業的工作內容一點都不性感,性感的應該是它水漲船高的薪酬條件。而根據史丹佛大學 在 2019 年的  AI 指標報告, 2019 年的人工智慧相關職位需求是 2015–2016 年的三倍,意指將會有越來越多的工程師或理工生轉向資料科學家或機器學習/資料工程師的行列。

然而,轉行的學習過程中,遇到問題最好還是要靠自己解決,但中間若有高人提點,痛苦會少一點。下面列出幾個線上社群,供有興趣入門的夥伴參考:

熱門的線上社群

RedditStack OverflowQuoraKaggle 在同行裡算是家喻戶曉。

Reddit美國第五大網站,截至 2018 年 3 月的每月活躍用戶量超過三億。與在台灣熟知的 PTTDcardBBS 論壇類似,有很多分類主題,用戶可以對貼文內容按讚或留言。在搜尋欄位輸入 data science、machine learning 等關鍵字就能找到相關分類主題版加入討論。

Reddit 論壇。圖\Reddit網站截圖
在搜尋欄輸入關鍵字加入相關社群。圖\Reddit網站截圖

Stack OverflowQuora 都是問答系網站,加入會員後可以發問,還可邀請業界專家回答你的問題。

Stack Overflow 偏向程式設計領域,常見的主題有 JavaScript 、 Java 、 C# 、 Python 等程式語言。

Quora 的主題編列範圍廣泛,除了技術社群,更網羅生活娛樂、人文社會、經濟等各式主題。一樣利用網站的搜尋欄位輸入自己感興趣的關鍵字,在相關主題群裡發問。

stack overflow 問答社群。圖\ Stack Overflow 網站截圖
Quora 問答社群。圖\ Quora 網站截圖

Kaggle 除了社群,還有很多資料集、專案及社群貢獻的資料分析代碼,不定期還會有競賽,是個很好的學習資源網站。

Kaggle 社群。圖\ Kaggle 網站截圖

上述幾個社群都是英文為主,而中文社群我知道的有知乎將門技術社群TensorLayer

知乎,基本上就是中文版的  Quora ,就不多做介紹了。而專門技術社群要填表申請,通過群主審核才能加入,領域分門別類,有計算機視覺、自然語言處理、物聯網等,只能擇一加入。

至於 TensorLayer ,它其實是中國開發者把 TensorFlow 包裝起來的函式庫,據說就是親切易懂版的 TensorFlow ,他們有自己的 Slack 社群,使用上有問題可以在群裡問,在 TensorLayer 的官方 Github 有連結可加入。無論是 TensorLayer 、 TensorFlow 這種開源函式庫,為了活躍開源環境,讓開發者踴躍參與開發,幾乎都會有各自的專屬開源社群,在它們自己的開源專案網站都會具體說明如何參與社群,這邊就不多加詳述。

台灣的社群使用 Facebook 社團算滿普遍的,活躍的有台灣人工智慧同好交流區、 AI 人工智慧與機器人社團、 AI Seminar Taiwan  、台灣人工智慧學校 — 舊稱:台灣資料科學年會等;此外, PTT 的資料科學版也是一個能參與討論的選擇。

怎麼找社群?

台灣普遍習慣使用 Facebook ,在 Facebook 搜尋關鍵字就能找到幾個活躍的社群。

而在海外的朋友,可以透過 Meetup 這個活動組織網站,用關鍵字搜尋找到當地的社群。 Meetup 上的社群多屬線下,也就是租個場地舉辦研討會、讀書會等,因為要面對面與人交流,一方面不符合我的個性,一方面是有些參差不良的活動會有獵頭推銷工作機會,我不是很喜歡。當然有部分 Meetup 聚會是線上舉辦,有興趣的朋友可以自己找找看。

Meetup 社群。圖\ Meetup 網站截圖

而日本除了 Meetup ,還有幾個類似的社群如: conpass Doorkeeper TECH PLAY 。不知道出於什麼原因,日本很喜歡辦這種約出來見面的研討會或讀書會,然後會議結束後要再外掛個懇親會閒聊加吃喝,我只能說這種活動對社交障礙者真的很不友善。

針對 Slack 社群官方並沒有提供搜尋介面,雖然網路上有人把 Slack 社群爬下來做成資料庫,但資料沒那麼即時; Facebook  社團雖然可以輸入關鍵字搜尋相關社團,但是找不到私密社團。譬如在東京的澀谷,時常在 Meetup 舉辦讀書會的 Team AI ,從 2016 年開始每週開辦讀書會,到目前會員數超過七千人,官方也有 Slack 群 (Team AI Slack Group) 可加入學習討論。

像這樣利用 Meetup 等活動社群,也能知道 Slack Facebook 等線上社群的資訊。

其他線上社群

Kaggle Noobs

Kaggle Noobs 是關於 KaggleSlack 社群,線上有即時新聞、硬體效能、論文分享等學習資源。截至 2020/3 ,成員數超過一萬人。

KaggleNoobs 社群。圖\ KaggleNoobs 網站截圖

AI Researchers

AI Researchers 有關於 OpenCV自然語言處理OpenAIGymKeras 等討論串,截至 2020/3 ,成員數超過五千人。

AI Researchers 社群。圖\ AI Researchers 網站截圖

Data Quest

Data Quest 是一個培育資料科學家的線上教育網站。除了提供整套教學課程外,還有自己的社群。社群算滿活躍的,這個公司基本上招募很多遠端資料科學工作者,所以來自世界各地的資料科學家都會參與這個社群。

Dataquest 社群。圖\ Dataquest 網站截圖

Data Science Salon

Data Science Salon 在舊金山、紐約、洛杉磯等都市舉辦機器學習高峰會,跟各大公司合作並邀請各界名人演說,有點像是機器學習版的 TED Talks,收取高價門票的富人聚會(誤)。但你可以加入他們的 Slack 社群,觀察一下研討趨勢。可以到 https://info.datascience.salon/apply-to-dss-slack-workspace 填表加入社群,或寄信到 info@formulated.by  申請。

DSS Slack 社群。圖\ Data Science Salon 網站截圖

Watson Developer Community (WВC)

這個是專門給 IBM Watson 開發者討論的 Slack 社群。

R-Team for Data Analysis

使用 R 做資料分析的朋友,可以加入這個全球 Slack 社群。

有些社群知識範圍屬廣域,有些社群聚焦在特定主題,依照自己的需求及水平參與相對應的社群,多看多吸收。若有心參與社群反饋,正所謂教學相長,學習效果更好。

參考資料

  1. 2019 AI Index Report by Stanford University
  2. 15 Data Science Slack Communities to Join
  3. AI開発を仕事にするための具体的な行動計画を『機械学習エンジニアになりたい人のための本』から紹介
文章難易度
活躍星系核_96
754 篇文章 ・ 93 位粉絲
活躍星系核(active galactic nucleus, AGN)是一類中央核區活動性很強的河外星系。這些星系比普通星系活躍,在從無線電波到伽瑪射線的全波段裡都發出很強的電磁輻射。 本帳號發表來自各方的投稿。附有資料出處的科學好文,都歡迎你來投稿喔。 Email: contact@pansci.asia

0

1
0

文字

分享

0
1
0
Hey Siri! 機器為什麼能聽得懂人話?語音技術的前世今生與未來
研之有物│中央研究院_96
・2018/06/14 ・5138字 ・閱讀時間約 10 分鐘 ・SR值 545 ・八年級
  • 整理報導|莊崇暉 美術編輯|張語辰

「天下沒有兩句話的聲音數據是一樣的!」人類語言的聲音數據千變萬化,同一個人說同一句話兩次,其數據絕對差很多;這是發展語音技術的最主要困難點。

好在人類語言有結構,因此語音技術必須透視聲音的結構。本文整理中研院李琳山院士在講座中的演講精華,一同了解華語語音技術的前世、今生並展望來生。

李琳山是臺灣研究語音技術的先行者,也是全球研究華語語音技術的拓荒者,一路看著「華語語音技術」由誕生、成長到茁壯。 攝影/張語辰

中央研究院李琳山院士演講的這一天,已經是臺北連續第五天微雨。前往會場的路上,你可能會問 Siri 明天天氣如何,並於一秒後聽到她回覆:「陰天,22 度」,還附上參考網址。究竟機器是如何聽懂人話的?

「語音技術,即是藉由機器處理語音訊號的數據。」李琳山開場時表示,人的語言的聲音是聲波,用麥克風收下來變成訊號後成為時間函數,再把任一小段「聲波波形」轉變成「實數序列」,也就是數據,再進行分析處理。

語音技術的最主要困難點,在於「聲波波形」的千變萬化。

例如,李琳山展示某一個人說一句話「到不到臺灣大學」的聲波,發現句中兩個「到」字聲波長得完全不一樣、音高也很不同,「天下沒有兩句話是一樣的!」

此外,我們熟知的是華語中有很多同音字,如說到「今」、「天」時,為什麼不會認為前者是黃金的「金」?李琳山解釋,聲音的訊號是有結構的,人腦中有類似辭典及文法、還有遠遠更為複雜的知識,我們會根據這些知識及前後文判斷出正確文字。因此,語音技術必須透視聲音的結構。

要讓電腦像人一樣,學會「聽」和「說」人類語言有多難?得從華語語音技術的前世說起。

語音技術前世:口齒不清牙牙學語的機器

1980 年,李琳山剛取得博士學位不久,回到臺灣。當時製作一份中文文件,得使用嵌有幾千個鉛字的大鍵盤中文打字機,臺北街頭還有不少打字行在徵求打字員。當時很多人思考:中文字輸入機器真的這麼困難嗎?並提出了許多解決方案,例如字根法、注音符號法等。李琳山則想著是否可以用「聲音」輸入中文。但是,以當時技術及臺灣的研究環境而言,他說:「太難了」。

1990 年代的中文鉛字打字機,現存於德國慕尼黑大學漢學院。 資料來源/Wikipedia [CC BY-SA 3.0]
為了實現用「聲音」輸入中文,構想之初,李琳山認為華語是一字一音,音的總數有限,頂多一千多個,讓機器學會聽這一千多個音,應該就可以用聲音來輸入文字。不過事情沒有想像中簡單,因為透過文獻發現,當時連英語語音輸入的技術都尚在極為原始的階段。因此,李琳山決定先教電腦「說華話」,但即使做出所有的一千多個音、拼成句子,機器發出來的音仍然不知所云。

李琳山百思不得其解:人說話不就是把這些音拼起來嗎?為什麼機器拼的聽起來不知所云?直到 1983 年,聽到一位語言學家的專業建議,李琳山開始尋找華語語句中每個字發音的「調整抑揚頓挫的一般性規則」。

華語語句中每個字只要前後字不同,就會有不同的抑揚頓挫,也就是音高、音量、音長和停頓的變化。

看來,唯一辦法是從數據中找答案。李琳山決定土法煉鋼,造出一堆句子並錄音,透過人工手動分析,確實慢慢發現若干一般性規則。

舉例:「我有好幾把小雨傘」一句中每個字都是第三聲,就有複雜的第三聲相連規則。一般熟知的是兩個第三聲相連時,前面那個會變二聲,例如「總統」。 資料來源/李琳山 圖說重製/張語辰

李琳山分析上圖這句話的文法結構,發現各個字之間有各種不同的文法結構邊界,原來前述三聲變化規則可以橫跨某些邊界,但不能橫跨其他邊界。如此一來就有答案了。把全部規則兜起來以後,再讓電腦用單音拼成一句話,並照規則調整每個字的抑揚頓挫,此時電腦雖然有點口齒不清,但大致能聽得懂電腦在說什麼了。

1984 年,短短一年後,口齒不清的電腦成為全球首台能說出華語的機器。李琳山给它一個很直白的名稱:「電腦說國語」,此套系統只要輸入文字或注音,就可以輸出聲音。由於聲音還是不太入耳,李琳山的研究團隊三年後改良出更好的系統,甚至能表演相聲,展現豐富的抑揚頓挫,例如下面音檔示範:

「電腦說語音」技術研發故事(演講現場播放)

 

李琳山之後開始想訓練機器聽華語。他提出三個基本假設,試圖讓華語語音辨識(Speech recognition)的問題變得比較可以解決。

首先,一次只輸入一個音就好,也就是一字一字「斷開」輸入,藉此避免連續語句中不同的前後字影響,造成不同的聲音訊號變化的問題。第二,每一位使用者自己說話訓練機器聽他的聲音,也就是要避免不同說話者的「音質」、「口音」等等差異。第三,辨識過程中一定會出現錯誤,讓人工操作軟體來更正就是了。這三個假設讓問題比較有機會解決。

機器操作時,需要當年看來極為龐大的運算能力,也需要複雜的硬體電路支援,然而因為當時軟體的計算能力太弱了,而不同的硬體電路拼湊困難始終不成功,後來李琳山決定傾盡研究室的財力,自國外購買平行運算電腦(transputer),終於在 1992 年完成第一部語音辨識系統,命名為「金聲一號 」(Golden Mandarin I)。這是全球首見的華語語音輸入系統,但一次只能輸入一個字,且那一個字需要好幾秒才看到辨識結果。之後不斷修改翻新,三年後的金聲三號(Golden Mandarin III) 終於不需要斷開文字,可以直接用連續語音輸入中文字。

李琳山說:「以前最大的問題是,華語中每個音的訊號的波形,長相都會因為前後字不同而改變。到金聲三號時我們已經讓機器自行由數據中,學出這些變化來解決這個問題。以現代名稱來說,就是古代的機器學習(machine learning) 。」李琳山說,以今天科技進步的速度來看,1990 年代稱為「古代」應屬合理。

今生:語音辨識加上雲端巨量資料庫

隨著機器學習等技術的進步,今天各種語音個人助理如 Siri 等等,聲控與回應能力也越來越強 。李琳山說明,其實 Siri 並沒有太多特別了不起的技術。

Siri 技術原理概念圖。 圖說設計/張語辰

如上圖,開發者把龐大的機器及計算資源、數據模型等設置在雲端,使用者對智慧型手機說話後,聲音訊號被送至「雲端」。雲端的龐大機器分析巨量資料、透過深層學習(Deep Learning,或譯深度學習)得到的技術來進行聲音辨識、資料搜尋,造句並合成聲音等,再傳回使用者。

如果除去雲端架構、巨量資料、深層學習等今日尖端技術及龐大的運算資源,Siri 剩下的華語語音辨識核心技術和 1995 年李琳山團隊的金聲三號差別並不大。

各種現行的語音助理:Siri, Google Now, Windows Cortana. By Pol.fores01 [CC BY-SA 4.0], from Wikimedia Commons
在今日巨量資料及深層學習的環境裡,機器可以在短期內聽完一個人由出生到 70 歲可聽到所有的聲音的總時數,甚至可聽完千百人一生聽過的聲音的總和。因此,機器有可能聽得比人還好嗎?現在或短期內還不會發生,但如是針對有特定規則的比賽,例如下棋或電腦遊戲,我們知道機器贏人已時有所聞。

提及「華語語音」辨識技術與「西方語音」辨識技術的差異,李琳山說明,華語是方塊字非拼音語言,由字構詞,由詞造句。詞的定義和在整句文句中詞的邊界也不明確。我們時常自動把很多小詞串起來變成長詞,又可以把長詞縮短變成短詞等等,也隨時自動產生很多新詞。

為了辨識語音、理解語意,機器自然需要詞典資料庫。然而開發者遇到的第一個問題可能是──該放多少詞?哪些詞?因為華語的詞幾乎是無限多的。

再者,華語一字一音,音的總數有限,但字總數很多,故同音字多,不同聲調和不同音的組合,產生出千變萬化的詞和句。例如,二人都說喜歡「城市」,乍聽並不易判斷他們到底是喜歡「城市」或「程式」。

華語中只有少數有限的「音」,每個「音」可代表很多同音字,這些字可拼成千千萬萬的詞和句。

華語的「音」帶有極豐富的語言訊息,這種「音」的層次的語言單位是西方語言所沒有的。

李琳山認為,透過巨量資料及深層學習,有機會讓巨量資料涵蓋人類語言中的各種現象,也有可能讓機器找到人類尚未考慮到的答案。也就是說當機器非常強大、數據多到可以涵蓋所有語言現象時,機器「有可能」自動學習到所有這些現象。不過目前還沒有發生。

下階段目標:「語音版」google,用聲音搜尋資訊

談及下一階段語音技術發展的可能方向,李琳山認為自己一直是追尋「遙遠大夢」的人,投入的研究方向常常在短期內看不出有實質回收的機會,例如:他今日非常有興趣的領域之一是語音搜尋,這就是語音版的 Google 。

網路多媒體湧現,如 YouTube 或線上課程,多數影片內容常有非常豐富的「聲音」,但其中的文字必須由人輸入,而且文字量常常比聲音少。

但現有透過 Google 去搜尋 YouTube 或影音平台的功能,僅止於搜尋那些人為輸入、數量較少的「文字」,例如影片描述、字幕等等,卻不是影音本身的「聲音」。

李琳山說:「 Google 看盡天下文章後能幫人找出任何一篇文章。機器聽聲音正如看文章,應該也可以聽盡天下聲音後,找到其中任何一句話。」例如,如果有人想找有關「深層學習」的演說,機器聽到指令搜尋後,應能跟他說某部影片的某句話提到「深層學習」。

目前用 Goole 搜尋 YouTube 影片時仍需要「文字輸入」關鍵詞,且只能找到整段影片,並無法知道影片中的每一句話各在說什麼,除非仔細聽一遍。這和李琳山所說的語音搜尋不同。 圖片來源/Google 搜尋

李琳山的團隊曾蒐集 110 小時、6000 則的公視新聞製作雛型系統,只要對機器說出「王建民讀的國小」,機器便會自動抓出含有「王建民」與「國小」兩個關鍵詞的新聞片段。

再以網路課程為例,李琳山的研究團隊曾開發「臺大虛擬教師」,把課程錄音以投影片為單位,將聲音切成小段,變成一張張有聲投影片。再從每張投影片中抽出「關鍵詞」建成關鍵詞圖,分析詞關鍵詞之間的關係。如此一來,機器不僅可以找出討論相關主題的課程段落,讓使用者知道所找到的投影片的大致內容,並可以建議學習的前後順序,也能自動摘要出其中的語音資訊。

李琳山現場展示「台大虛擬教師」的操作。例如,有一個學生聽演講時聽到類似 “Black word algorithm” (黑字演算法)的字眼,就上網查相關課程,發現果然有好幾張投影片都說到這個詞。不過一聽就發現,所找到的投影片真正說的是 “Backward algorithm” (反向演算法),那才是那個學生聽到的。李琳山說:「這可以證明我們搜尋的是聲音,而不是文字。」

來生:融會貫通多媒體數位內容,量身打造課程資訊

談起語音技術的未來,李琳山認為,未來機器有機會替人類把網路資訊去蕪存菁、融會貫通。例如 2015 年 YouTube 的尖峰時段每分鐘有 300 小時影片上傳 ,2016 年 Coursera 線上課程有將近 2000 門課。沒人有能力看完或聽完所有這些數位內容,人類的文明精華因而埋在大量不相干的資料堆中。但是機器可以看完、聽完它們。

具有代表性的線上課程網站 Coursera。 By Coursera – coursera.org, 公有領域, @wikipedia commons

李琳山舉例:機器有可能聽完全部內容並融會貫通,再為每個人抽出他所需要的部分,由機器量身訂製課程。例如一名工程師被派到奧地利出差,他跟機器說:「我想學莫札特作品的知識,但我是個工程師,沒有背景知識,願意花三小時來學。」李琳山認為技術上,機器有機會做得出這種「客製化課程」。

李琳山以「遙遠大夢」比喻語音技術的研究。

回顧華語語音技術三十幾年的發展,電腦機器已經從「牙牙學語」進展到「對答如流」,卻還有許多需著力之處。李琳山說「芝麻開門」是人類的千古大夢,希望開口說話就可以打開寶藏的大門。以今日眼光來看,網路是全人類的知識寶藏,未來隨口說句話便可以開啟寶藏大門是有機會的。他說:「大夢雖遙遠,有一天有人會實現它。」

延伸閱讀:

本著作由研之有物製作,原文為〈Google 可能會有語音版嗎?會長怎樣?「電腦聽說人類語言」技術的前世今生〉以創用CC 姓名標示–非商業性–禁止改作 4.0 國際 授權條款釋出。

本文轉載自中央研究院研之有物,泛科學為宣傳推廣執行單位









文章難易度
研之有物│中央研究院_96
240 篇文章 ・ 1908 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

1
0

文字

分享

0
1
0
AI能做什麼事?從工人智慧到人工智慧,如何期待又不怕受傷害?——機器學習月/人工智慧跨域領袖營
研之有物│中央研究院_96
・2017/12/23 ・4456字 ・閱讀時間約 9 分鐘 ・SR值 525 ・七年級

中研院人工智慧系列活動

當有些人喊著 AI 會殺人,有些人搶先用 AI 來做聰明的事,甚至是救人一命!本文取自中央研究院「機器學習月」與「人工智慧跨域領袖營」活動內容,聊聊各領域最新的 AI 發展與應用。

用 AI 救人:觀察細微脈博

「余憶童稚時,能張目對日,明察秋毫。見藐小微物,必細察其紋理,故時有物外之趣。」若你曾在國文課本讀到這段,可曾驚嘆沈復的好眼力?

現在你可以拍拍沈復的肩膀說「以 AI 細視,汝更覺呀然驚恐」。因為人工智慧的影像處理技術宛如一副神奇眼鏡,能看到肉眼察覺不到的細微變化,例如:當血液隨脈博通過臉部,造成的膚色變化。

心跳訊號放大 100 倍的手機拍攝影像,可以看見當血液被打上來通過臉部,皮膚顏色明顯變紅(右圖)。影片/Revealing Invisible Changes In The World

這個影像放大技術反之,也能藉由偵測臉部皮膚顏色變化的頻率,回推心跳速率。對於新手爸媽而言,常見的焦慮是「總想確認寶寶還在呼吸嗎」,因為嬰兒熟睡時一吸一吐的胸部起伏相當細微,從外觀難以分辨。

發展這個影像放大技術的團隊,發現也能從嬰兒睡覺的影像推估心跳速率,數值準確度可與醫療監測器相比,有機會應用於家庭日常的呼吸監測,預防嬰兒猝死症 (SIDS)

脈博訊號放大 150 倍的影像,可以透過血液流經臉部的膚色變化頻率,推估嬰兒脈博的速率。影片/Revealing Invisible Changes In The World

大眾看新聞時,經常好奇螢幕中人說話是否屬實,例如當立委說出「一生監督你一人」時,政府官員是否有動情。表情可以透過臉部肌肉控制,而脈搏跳動加快、引起血液流經臉部的膚色變化,透過這個訊號放大技術解析,就藏不住心跳了。

用 AI 聚集靈感:社會物理學

俗話說:「三個臭皮匠,勝過一個諸葛亮」,但如果臭皮匠高達成千上萬名呢?

透過社群網絡,串起成千上萬名臭皮匠互相交流資訊、溝通意念,並透過資料科學依此預測未來的行為、找出問題的對策,可說是「社會物理學 (Social Physics) 」的奧義。而提倡社會物理學這門新科學之人,是被《富比世》雜誌譽為「全球 7 大權威資料科學家之一」的 Alex “Sandy” Pentland 教授。

來自美國麻省理工學院的 Alex “Sandy” Pentland 教授,在機器學習月演講中向大家提問:「在這裡有多少人認為自己是獨立的個體?」圖/中研院資訊所

儘管 YouTube 出身的 HowHow 堪稱「邊緣人中的霸主」,而生活中也有許多人在群體中感到孤立,但 Alex “Sandy” Pentland 教授指出,無論在虛擬社群和真實社會中,沒有人是獨立切割的。

每個人都是社會的一部分,共享資料、共享資訊,這時意念彷彿化為一條時間長河、流動著,每個人涉身其中,從彼此的經驗想法中學習,最終成就我們自己的習慣和興趣。

而這些可共享、可分析的資料從何而來?就在人們身邊各處──包含通話紀錄、信用卡交易、 GPS 定位紀錄等等,像是糖果屋童話中撒下的「數位麵包屑」,表達著你的生活行蹤與選擇偏好,而差別是不會被森林裡的動物吃掉。

數位麵包屑最常見的應用:根據駕駛人手機提供的 GPS 數據,逐分鐘更新交通順暢(綠色)或壅塞(紅色)情況。圖/Google 地圖

數位麵包屑與臉書(Facebook)貼文大不相同,臉書貼文是人們選擇性過濾、編輯的資訊。比起人們自己說自己做了什麼,日常的數位麵包屑反而更能反映個人真實情況。

年齡、性別沒辦法精準表達你是誰,更重要的是你去了哪裡、做了什麼。

Steve Jobs 曾說:「所謂的創造力,只是將事物聯繫起來」,而社會物理學基於貝氏網路 (Bayesian network)發展,透過數位麵包屑將不同情況聯繫起來,找出「情況 A 」和「相關情況」之間的機率關係。

例如,透過數位麵包屑,知道有糖尿病風險的人何時在哪吃飯、或是不善理財的人在哪消費,即時對個人做出提醒,或蒐集數據改善健康或金融政策。圖/iStock

Alex “Sandy” Pentland 教授再舉例,若在地圖看到 GPS 人流移動到了城郊某一地帶就停止,傳達的資訊是:當大多數人停止前往該區,代表該區容易有犯罪活動。並另以北京的資料指出,若當地的交通網絡完善、社群流動越密集,未來三年該區的經濟成長機率也偏高。這些社群行動觀察,有助於城市規劃與犯罪防治,而且運用的資料無須涉及記名資訊。

社群範圍也能縮小到公司。 Alex “Sandy” Pentland 團隊與美國銀行(Bank of America)的電話客服中心合作,實驗若客服員之間有越多的想法交流,是否能降低每通客服電話的處理時間。分析結果發現,比起客服員逐一單獨休息,讓整個客服團隊一起休息更好,因為有助增進團隊間的交談、交流工作竅門,讓處理客服電話的平均時間大幅降低。

從工人智慧到人工智慧,期待又怕受傷害

不是每個戀曲,都有美好回憶。而 Google 臺灣董事總經理簡立峰,在人工智慧跨域領袖營中提到,不是每個問題都適合用 AI 解決。圖/張語辰

適合發展 AI 的是「有特定知識」、「行為可預測」的領域,並且應善用「原本就有的資料」,例如臺灣累積豐富的醫學影像,這些影像透過機器學習就能轉換為知識,而非從頭開發網站,去蒐集新的使用者資料。

在 Google 有幾萬名工程師在進行幾千項專案,各種領域都有人嘗試,甚至包含用影像辨識判斷正在飛行是不是母蚊,是的話就擊殺,藉此來斷絕蚊子成為疾病傳染源。簡立峰分享, Google 若進行 5000 項 AI 專案,最後證實有用的不到 10 項,實作後會發現論文演算法講得頭頭是道,但實作後好像不是這回事,許多參數調不出來。

然而,這些過程不是白費。 Google 從這些專案裡的工程師選出 50 位較富經驗者、組成顧問團,再引導大家嘗試各種 AI 專案,而前提是要建立開源文化,開放讓所有員工自由修改程式碼,應用在自己的專案中。

臺灣的組織化領導,讓軟體高手沒有發揮空間,就算有神字輩也只是當兵用。

許多人會好奇,為什麼 Google 軟體開發這麼厲害?簡立峰提到,臺灣生產「硬體」的組織結構,是將軍關在辦公室,帶領生產線的幾千名士兵,一起完成最後的產品。「軟體」的思維要倒過來,Google 採取「有將軍沒有兵」的模式,人人都是將軍,讓神人站上第一線寫程式,自己 debug 解決問題。

「 AI 是當紅的產業趨勢,但我的小孩不是讀這個領域的怎麼辦?」在演講中,一位中年父親提出許多家長會有的疑問。

「通常華人的傳統,生了兩個小孩,一個會讓他出去外面的世界闖,一個會留下來照顧老家……」簡立峰從社會文化與人之常情,比喻臺灣整體產業發展。

在 AI 時代,科學可以突破百分之八九十,但最後一哩路比想像中難度更高。哪裡熱門、大家都趨之若鶩,即使可能史上最大的失敗就在眼前。這是出去闖的孩子會面對的問題。簡立峰提到,臺灣可以參考以色列的產業策略,弱水三千只取一瓢飲,著重發展大市場需要的尖端技術,例如臺灣的鏡頭技術世界知名,就有更多優勢延伸發展電腦視覺領域。

從古至今,地圖視角會影響思維。簡立峰提到,若換個角度看臺灣,別忘了日本、南韓、新加坡、東南亞就在附近,許多 AI 合作機會就在臺灣旁邊。圖/Google 地圖

而若不在 AI 領域,留下來的孩子,則應跟臺灣土地有所連結,發展他國取代不了、有信賴感的產業:例如醫療、食品、農業,讓在外面闖的孩子無論什麼時候回家,都能感受到在地文化、安心踏實。

學界與產業離很遠?創造一個機會齊動腦!

2017 年政府宣示「臺灣 AI 元年」即刻開始,但要落實到業界尚有層層挑戰。為此,科技部與中研院舉辦五天四夜的密集研習,向國內外講師借智慧、聚集學員間的意念流,來討論各產業要懂哪些 AI 先備知識、遇到的問題如何解決。

來自各領域的 81 位專業人士(產業界佔 85%、醫界佔 11%、學界佔 4%),齊聚於人工智慧跨域領袖營。圖/張語辰

以臺灣醫療產業而言,優勢是已累積豐富的影像診斷資料,若在保護病人隱私的前提下開放資料,就有機會透過電腦視覺協助醫師診斷病情,或是監測嬰兒老人的睡眠呼吸中止情況。甚至在診間,當病人聽完診斷滿臉問號,這時一旁的鏡頭偵測到病人表情,就能提醒醫生要再多加說明、增進醫病關係。

製造業的學員則回饋,若企業自己架設機房、自己租用雲端伺服器,這種燒錢行為會降低轉型意願,希望政府能提供雲端運算資源的協助,例如國家實驗研究院高速網路與計算中心(國網中心)的 GPU 伺服器。

「在華爾街大量招募資料科學家的趨勢下,臺灣的 FinTech(金融科技)仍受限法規,綁手綁腳無法前進!」來自金融界的學員表示。希望能透過調整金融法規、個資法規,讓去識別化的財務資料成為可應用數據,藉以分析客戶的潛在風險、或預測未來交易。或者,開戶時結合電腦視覺技術,透過影像辨識開戶者是否有異常的心跳表現、說謊的可能性,及早阻止不當的金融交易。

最後,無論是想出去或留下來的孩子,以及學界產業界的人士,若有興趣進一步了解 AI 領域中各技術有何不同,下圖的「資料科學學習地圖」將能作為指引。

初次進入 AI 領域,需從核心課程出發,再依興趣或需求轉往「資料探勘」、「網路爬蟲」、「進階應用」方向。圖/臺灣資料科學協會

儘管 AI 之路讓人既期待又怕受傷害,但如同電影《三個傻瓜》所言:「請把手放在心上說『一切都好』,我們的心太容易害怕,你得哄騙它。不管天大問題,告訴你的心『一切都好』,那會讓你有勇氣去面對問題。」

延伸閱讀:迎接人工智慧時代,你我都該上的 30堂必修課

本著作由研之有物製作,以創用CC 姓名標示–非商業性–禁止改作 4.0 國際 授權條款釋出。

本文轉載自中央研究院研之有物,泛科學為宣傳推廣執行單位

文章難易度
研之有物│中央研究院_96
240 篇文章 ・ 1908 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook