0

1
0

文字

分享

0
1
0

剖析霍金的「代言人」:人機如何透過語音互動溝通?

活躍星系核_96
・2018/03/28 ・7731字 ・閱讀時間約 16 分鐘 ・SR值 521 ・七年級

-----廣告,請繼續往下閱讀-----

  • 作者/施登騰 中國科技大學互動娛樂設計系主任
史蒂芬・霍金(Stephen Hawking )博士。 圖/Lwp Kommunikáció

今年(2018)年 3 月 14 日傳來史蒂芬・霍金(Stephen Hawking )博士 76 歲長眠的消息,舉世同哀。早上開電腦上網後,看到有更多他的相關消息與回顧,這些熱烈討論從昨天到今天都仍持續不斷著。

霍金的語音代言人

圖/《愛的萬物論》劇照

曾與家人一同欣賞史蒂芬・霍金的傳記電影「愛的萬物論 (The Theory of Everything)」(頗喜歡這中英文片名),不過沒看他的「時間簡史」,只借閱過他親筆自傳《我的人生簡史》。電影透過戲劇呈現霍金博士的生平,算來是個奇特經驗。我們比較熟悉的霍金博士,是那個因罹患漸凍症,後來失去說話能力,需透過電腦語音代言,卻仍不減溝通能力與幽默的霍金博士。當然,電影中也演出了這段經歷,透過電腦語音重拾溝通能力並不簡單。

網路上可以找到霍金博士親自說明,電腦語音如何協助他發言,可以點以下影片聆聽他的熟悉聲音。

還有一個網站提供「霍金聲音生成器 (Stephen Hawking Voice Generator)」。霍金博士在影片中提到,他當時使用的語音合成軟硬體設備,是由「劍橋精益通訊公司(Cambridge Adaptive Communication)」的 David Mason 幫他裝設在電動輪椅後面;使用的是一款名為「Equalizer (等化器)」的軟體,由加州電腦專家華托茲(Walt Woltosz)於 1985 年幫霍金博士研發的,這在他的自傳中也有提到。

-----廣告,請繼續往下閱讀-----

這合成的聲音不僅像機器人說話,而且還有美國口音。《Meet the man who lent Stephen Hawking his voice》(將聲音借給霍金的人)這篇報導中,作者 Rachel Kraus 引述雜誌《Wired》的深入報導,寫到這個聲音原屬 Dennis Klatt 這位美國麻省理工的學者,以他自己的聲音透過電腦合成而成。在 80 年,當霍金博士失去口語能力時,找到了 Dennis Klatt 所合作的《DECtalk》公司的語音合成軟體(Speech synthesizer),透過文字輸入方式進行語音合成(Text-to-Speech,TTS)。

霍金親述他是如何透過科技說話溝通的。 圖/〈Stephen Hawking – How is he talking?〉影片。

目前霍金所使用的語音合成軟體《Equalizer》已經提供開源碼,希望能嘉惠更多有需要的人;正式的官方名稱為「Assistive Context-Aware Toolkit (輔助式語意感知工具包)」,適用於有 Windows 7 以後的版本、使用 C# 語言;不支援 Mac 系統。有需要進一步資訊的話, 雜誌《Wired》2015 年 8 月的這篇報導「You Can Now Use Stephen Hawking’s Speech Software For Free」(免費使用霍金用的說話軟體!)會更清楚。

由於漸凍症的緣故,霍金博士除了逐漸失去說話能力;即使電腦語音的拼字輸入方式,也因症狀加劇而逐漸弱化。到了後期,霍金博士甚至需要借助 IR 去偵測臉頰肌肉運動進行輸入控制,使用的是《Words Plus》公司的軟體《EZ Keys》,只要輸入幾個字,前方螢幕會據以顯示候選字句,讓霍金博士以臉頰的微幅動作控制選字句組合,然後再透過 《Equalizer》轉成聲音檔,也就是那個美國口音的機器人聲 。

據 Rachel Kraus 引述雜誌《Wired》報導,霍金博士不僅在《DECtalk》公司進行語音合成軟體升級時,要求使用原聲音檔,甚至後來 Intel 為他建置新的軟體時,還在他的堅持下,找回 Dennis Klatt 的原始聲音檔去進行軟體升級。大家可以欣賞「Master Of The Universe: Stephen Hawking」(宇宙大師:霍金)這部紀錄片,片中 22:10~22:40 這一段就有霍金博士以臉頰動作輸入文字的畫面。

-----廣告,請繼續往下閱讀-----
圖/〈How Does Stephen Hawking Talk?〉影片

人機互動──語音助理可以做到什麼?

這令人遺憾的新聞確實讓我想到「人機互動 (HCI)」的發展(很抱歉),加上最近跟好友借用了《Amazon Echo》跟《Echo Dot》來玩,常常在早上就使用,會「請」Alexa 服務,說聲「Alexa, Play music.」,Amazon 的語音助理 Alexa,就會幫我播「70 年代電台音樂」,也玩過《Jeopardy 猜謎》,這是 24,000 多個 Alexa Skills(技能)提供的服務(根據 2017.12 數據)。

圖/Amazon

Amazon 也開放 Alexa Skills Kit,歡迎第三方參與開發。iOS 的 Siri 自然我也常用,因為上下班搭車移動中習慣戴耳機,所以都會長按耳機控制鈕呼叫出Siri,要她播音樂或撥電話。但有許多科技報導說得很直白,直接指出 Siri 不僅被遠遠拋在 Amazon Alexa 與 Google Assistant 後面,更不用說相關應用根本跟不上Amazon Alexa Skills 與 Google Me-Too 的第三方應用那樣的快速發展。

也有篇科技新訊提出相關分析,並特別點出三家公司在發展「Voice First Platform」這種新型個人數位服務與應用平台上的顯著差距,或許會成為影響三家公司發展前景的致命關鍵。

Amazon Echo 語音助理裝置。圖/作者拍攝。

替 Siri 配音的人

此外,再談談原音重現。就像霍金博士的語音合成的原音是 Dennis Klatt。iOS Siri 在發音上非常接近自然人聲,而最常用的女音則是 Susan Bennet 的聲音組合的(見下圖),而男聲版本的,可以查到資料的是幫英國 Siri 版配音的 Jon Briggs,他算是 iPhone 4 第一代 Siri 的男聲。

-----廣告,請繼續往下閱讀-----

而根據 Susan Bennett 接受訪問的錄音內容「Siri is dying. Long live Susan Bennett,她提到她在2005年接到一個配音委託,當時她不知道這些錄音是做什麼用的,整整花了 1 個月,每天 4 小時去錄許多短句,後來還是同事在 2011 年問她,她才知道是用在 Siri 的人聲語音服務上。只不過 Apple 也未曾正式承認 Susan Bennett 就是 Siri 這個機器人助理的幕後人聲。

但對 Susan 來說,至少 CNN 請了專家鑑定確定,她在 TED 以「Accidentally Famous: The Story Behind the Original Voice of Siri 」為題演講過;但根據報導,Jon Briggs 卻還接到 Apple 電話,被要求不要公開談論他就是 Siri 的男聲,理由就是「不希望 Apple 的數位語音助理被聯想到特定的人」。他們兩位曾同時被訪問過這些特殊經驗,有興趣者可以看這篇訪問稿:「Hey, Siri! Meet the real people behind Apple’s voice-activated assistant」。

siri 的幕後配音員 Susan Bennett 。 圖/Susan Bennett 個人網站

如何讓數位語音助理「聽起來」越來越像人?

那就接續談談在發音上越來越接近人聲的數位語音助理(Digital Voice Assistant)吧!

之前在「The Voice of Museum」這篇分享中(博物館學會網站刊載連結),曾於針對博物館科技應用談到「數位語音助理」與「語音服務」時,有提到如下的內容:

-----廣告,請繼續往下閱讀-----

無論是把 Echo、 Siri,、Cortana 稱之為語音助理(Voice Assistant)、虛擬助理(Virtual Assistant)、人工智慧助理(AI Assistant、AI-Powered Virtual Assistant),而且就像「The Surprising Repercussion of Making AI Assistants Sound Human」以及「Why Do So Many Digital Assistants Have Feminine Names」談到的議題,我們對人工智慧科技服務的具體想像,其實不是機器人助理,而是更接近「人」的虛擬助理,無論是在語音對答服務時更像真人的語調,或者是在命名與性別上。

文章中提到所謂的「依存互動 Contingent Interaction」,並引用研究說人類比較能夠對可以來回反應、對話與互動的人事物有所連結。報導也都提出不僅「擬人 Humanlike」是具體目標,兼有個性與實用性(Personality and Utility)的虛擬助理服務也是眾所企求的。

這也讓我想起在智慧博物館《AI 上博物館中,引述 Deeson 廣告公司的科技策略總監 Ronald Ashiri 在文章How Museums Are Using Chatbots》(博物館如何應用聊天機器人),其中的概念「Giving chatbots a face」(賦予聊天機器人個性形貌)。就從上述所分享的實際案例來看,目前的人工智慧發展已讓「想像」逐漸成真。

其中所提的數位語音助理的 Humanlike、擬人化anthropomorphic)傾向,以及命名女性化的特徵,在在顯示了數位助理的研發,是在追求一個全知的 AI 語音助理;或許在具體樣貌上,就會越來越接近電影《鋼鐵人》的人工智慧助理:J.A V.I.S. (Just Another Rather Very Intelligent System的縮寫) 。

圖/《鋼鐵人》劇照 @The Verge

人機互動的溝通:語音轉文字,文字轉語音

前面提到,霍金博士透過軟體《EZ Keys》選擇字句,再由軟體《Equalizer》轉譯成聲音。這種 Text-to-Speech(TTS,文字轉語音)的數位轉譯形式對現在的數位技術來說其實是很簡單的應用,因為已有很多 App 都能支援,即使是逆向工程:Speech-to-Text(STT,語音轉文字),也已經很普及,像是現在手機輸入法中內建的語音輸入法。

-----廣告,請繼續往下閱讀-----

特別再提及這點,是因為「文字」與「語音」都是與 AI 數位助理溝通的重要媒介與元素。就如同在《AI 上博物館》與《AI 上互動娛樂設計系》[註1](這兩篇所介紹的許多數位語音應用,博物館與其不同業界所使用的「AI 聊天機器人」,不管是「純簡訊服務類(text messaging service)」、「即時對話服務類 (chatbot conversational service) 」、「問與答諮詢類(Q&A chatbot service)」類;基本上,人機互動都是透過「文字」或/與「語音」溝通。

像 Google 就研發了專屬的「語音合成標記語言」( the Speech Synthesis Markup Language;SSML )技術來支援語音合成應用程式,並操控互動語音系統;使得與 AI 數位語音助理的對話,可以像是跟某人說話互動一樣。

舉兩個實際的應用案例:

Google Story Speaker (互動故事閱讀器)

基本概念是將在網路文件編輯器 《Google Doc 》上所編寫的互動腳本(文字檔),透過 Add-On (附加元件)加入應用程式《Story Speaker》,就可以使用智慧管家《Google Home》或語音助理《Google Assistant》,以語音播放;「文字朗讀功能(TTS)」再加上「語音辨識功能(STT)」,就可以讓《Google Home》成為《Story Speaker》,而且還會在特定段落詢問閱聽者的決定,提供不同路線的故事內容,導引到不同的故事結局。

-----廣告,請繼續往下閱讀-----

Google Grilled Murder Mystery(互動偵探角色扮演)

此應用的概念,是讓玩家在這個語音互動應用程式中的謀殺案中扮演偵探的角色,玩家透過訪問四名嫌犯中的每一名去調查餐館老闆的命案的線索,以確定誰才是兇手。此應用程式也使用了 SSML 語音合成標記語言技術,所以玩家就像是透過一位「助理」的協助,進行命案的偵查。

由 Google 開發的人工智慧語音互動遊戲「Grilled Murder Mystery」。 圖/Grilled Murder Mystery

現代人工智慧可以執行什麼任務?

所以無論與語音助理之間的溝通,是透過 TTS 或 STT 形式,在未來,透過人工智慧、自然語言處理、機器學習等先進技術的導入,要在現實生活中有 JAVIS 協助打點一切,並提供全知的資訊服務,並非不可能。

語境(Context)」、「語言(Language)」、「推理(Reasoning)」被視為人工智慧的三大挑戰,但如果是要考慮的 AI 數位語音助理之研發應用的話,它們也是機器學習、自然語言處理兩項技術的重大挑戰。

現如今,金融特別是一個全面採用 AI 技術、自動化技術的行業,也就是大家熟悉的 FinTech 趨勢。針對「數據資料導向任務(Data-Driven Task)」的自動化來說,AI 技術已被充分運用了,AI 財經機器人已能自動撰寫處理「基金財務報告 Fund Reporting」、「損益分析報告 Profit & Loss Reports」、「信用管理報告 Credit Management Reporting」、「銷售報告 Sales Reporting」(資料來源)。看來,許多挑戰已隨著應用需求與科技發展,而逐漸被克服。

-----廣告,請繼續往下閱讀-----

而我的重點是,人工智慧技術、機器學習模型已經能夠自動判斷文本的結構和含義,像是根據霍金博士輸入的幾個字,自動判斷後提供「選用字句(Candidate Sentence)」,有效減少輸入次數;或者像前面例舉的「互動偵探角色扮演(Grilled Murder Mystery)」此一類型的智慧語音應用。

「全知型」互動對話導覽服務

在 TTS、STT、AI、Machine Learning、NLP 等技術的持續發展,以及典藏資料庫的內容支援下,很期待未來有機會在博物館、商展、展演機構見到「全知型」互動對話導覽服務的出現。

梵谷自畫像。 圖/ The Art Institute of Chicago via Google Arts & Culture

下圖是使用自然語言處理(NLP)技術,利用分析器(Parser)將一段「畫作說明文字」(梵谷自畫像)進行語法分析(Syntactic analysis)的結果。這段「畫作說明文字」在數位處理分析後,由分析器解構成各個詞彙單位,並呈現其結構和含義。語法分析也用來建立樹狀的語法樹(syntax tree),透過中間表述提供詞彙單位串流的語法結構。

該段說明文字如下:

Vincent van Gogh painted his first known self-portrait in 1886, following the model of the 17th-century Dutch artist Rembrandt. But by the time he made this work, a year later, he had clearly shifted his allegiance from the Old Masters to the Parisian avant-garde. Under the influence of Neo-Impressionist color theory, he based this painting on the contrast of complementary colors.

Syntax分析結果見下圖:

語法分析(Syntactic analysis)圖。 圖/作者提供

也就因為這些強大的數位技術支援,我們與機器的「文字」或「語音」互動對話,都能更自然,人工智慧更思考能力,人機互動更接近我們的日常行為。所以數位科技讓因為漸凍症無法言語的霍金博士仍能繼續寫作、演講;相信數位科技也打開了與具有龐大內容的數位語音助理/電腦/資料庫進行深度互動的機會。

WATSON,美術館中的全知數位導覽員

我個人認為的理想數位導覽應用典型,應該是是巴西奧美廣告公司與 IBM 公司合作,於 2017 年 6 月在巴西聖保羅博薩博物館(Pinacoteca do Estado de Sao Paulo) 所推出的數位導覽服務《The Voice of Art / with WASTON》

這個 App 使用的數位語音技術就是由 IBM 研發的《WATSON》。研發團隊為了培養 WATSON 的應答能力,共花了 6 個月時間與西聖保羅州立博物館策展人和研究員合作,以大量的書籍、報導、傳記、訪談、網路資料、影片讓 WATSON 透過機器學習累積對於藝術作品豐富知識與答案,並擴大可對話與提供回覆的範疇,WATSON 就像個全知的數位導覽員。

在「The Voice of Art / with WASTON」的宣傳影片中,研發人員說:

「用預錄的聲音介紹藝術史,並不是真正的互動。」

所以他們花了非常大的努力,希望讓 WASTON 與使用者有更自然的對話。影片中,有位小孩則看著肖像畫,問畫中人物說「你喜歡踢足球嗎?」。我想 WASTON 的確做到了!!!!

小朋友透過導覽器問說:「你喜歡踢足球嗎?」 圖/ADWEEK
-----廣告,請繼續往下閱讀-----
文章難易度
活躍星系核_96
776 篇文章 ・ 130 位粉絲
活躍星系核(active galactic nucleus, AGN)是一類中央核區活動性很強的河外星系。這些星系比普通星系活躍,在從無線電波到伽瑪射線的全波段裡都發出很強的電磁輻射。 本帳號發表來自各方的投稿。附有資料出處的科學好文,都歡迎你來投稿喔。 Email: contact@pansci.asia

0

0
0

文字

分享

0
0
0
從奈米微塵到化學氣體, HEPA 與活性碳如何聯手打造純淨空氣?
鳥苷三磷酸 (PanSci Promo)_96
・2026/04/17 ・4433字 ・閱讀時間約 9 分鐘

本文由 Amway 委託,泛科學企劃執行。

很多人可能沒想到,無論是家用的空氣清淨機,還是造價動輒百億的頂尖晶圓廠,它們對抗污染的核心武器並非什麼複雜的雷射防護罩,而是一片外觀像紙一樣的 HEPA 濾網
在半導體產業的無塵室中,「乾淨」的定義極其殘酷:一粒肉眼看不見的灰塵,就足以讓造價數百萬美元的晶圓直接報廢 / 圖片來源:envato

到底怎樣才算是「乾淨」?這不是什麼靈魂拷問,而是一個價值上億的商業命題。

在半導體產業的無塵室中,「乾淨」的定義極其殘酷:一粒肉眼看不見的灰塵,就足以讓造價數百萬美元的晶圓直接報廢。空氣品質的好壞,甚至能成為台積電(TSMC)決定是否在當地設廠的關鍵性指標。回到你的家中,雖然不需要生產精密晶片,但我們呼吸系統中的肺泡同樣精密,卻長期暴露在充滿 PM2.5、病毒以及各種揮發性氣體的環境中。為了守護健康,你可能還要付費購買「乾淨的空氣」來用。

因此,空氣議題早已超越單純的環保範疇,成為同時影響國家經濟與個人健康的重要問題。

-----廣告,請繼續往下閱讀-----

很多人可能沒想到,無論是家用的空氣清淨機,還是造價動輒百億的頂尖晶圓廠,它們對抗污染的核心武器並非什麼複雜的雷射防護罩,而是同一件看起來平凡無奇的東西:一片外觀像紙一樣的 HEPA 濾網。但你真的相信,就憑這層厚度不到幾公分的板子,能擋住那些足以毀滅精密晶片、滲透人體細胞的「奈米級刺客」嗎?

這片大家都聽過的 HEPA 濾網,裡面到底是什麼?

首先,我們必須打破一個直覺上的誤解:HEPA 濾網(High Efficiency Particulate Air filter)在本質上其實並不是一張「網」。

細懸浮微粒 PM2.5,是指粒徑在 2.5 微米以下的污染物,它們能穿過呼吸道直達肺泡,並穿過血管引發全身性發炎。但這只是基本,在工廠與汽車尾氣中,還存在粒徑僅有 1 微米的 PM1,甚至是小於 0.1 微米的「超細懸浮微粒」(UFP,即 PM0.1)。 UFP 不僅能輕易進入血液,甚至能繞過血腦屏障(BBB),進入大腦與胎盤,其破壞力十分可怕。

如果 HEPA 濾網像水槽濾網或麵粉篩一樣,單靠孔目大小來「過濾」粒子,那麼為了攔截奈米微粒,濾網的孔目只能無限縮小到幾乎不透氣的程度。更別說在台積電或 Intel 的製程工程師眼裡,一般人認為的「乾淨」,在工程師眼裡簡直像沙塵暴一樣。對於線寬僅有 2 奈米3 奈米(相當於頭髮直徑萬分之一)的晶片而言,空氣中一顆微小的塵埃,就是一顆足以毀滅世界的隕石。

-----廣告,請繼續往下閱讀-----

因此,傳統的過濾思維並非治本之道,我們需要的是原理截然不同的過濾方案。這套技術的雛形,最早可追溯至二戰時期的「曼哈頓計畫」。

HEPA 的前身,誕生於曼哈頓計畫!

1940 年代,製造濃縮鈾是發展原子彈的關鍵。然而,若將排氣直接排向大氣,會導致致命的放射性微粒擴散。負責解決這問題的是 1932 年諾貝爾化學獎得主歐文·朗繆爾(Irving Langmuir),他是薄膜和表面吸附現象的專家。他開發了「絕對過濾器」(Absolute Filter),其內部並非有孔的篩網,而是石綿纖維。

有趣的來了,如果把過濾器放到顯微鏡下,你會發現纖維之間的空隙,其實比某些被攔截的粒子還要大。那為什麼粒子穿不過去呢?這是因為在奈米尺度下,物理規則與宏觀世界完全不同。極微小的粒子在空氣中飛行時,並非走直線,而是會受到空氣分子撞擊,而產生「布朗運動」(Brownian Motion),像個醉漢一樣東倒西歪。

當粒子通過由緻密纖維構成的混亂迷宮時,布朗運動會迫使它們不斷轉彎、移動,最終撞擊到帶有靜電的纖維上。這時,靜電的吸附力會讓纖維就像蜘蛛網般死死黏住微粒。那些狂亂移動的奈米刺客,就這樣被永久禁錮迷宮中。

-----廣告,請繼續往下閱讀-----

現在最常見的 HEPA 材料,是硼矽酸鹽玻璃纖維。

現代 HEPA 濾網最常見的核心材料為硼矽酸鹽玻璃纖維。這些玻璃纖維的直徑通常介於 0.5 至 2 微米之間,它們在濾網內隨機交織,像是一座茂密「黑森林」。微粒進入這片森林後,並非僅僅面對一層薄紙,而是得穿越一個具有厚度且排列混亂的纖維層,微粒極有可能在布朗運動的影響下撞擊並黏附在某根玻璃絲上。

除此之外,HEPA 濾網在外觀上還有一個極具辨識度的特徵,那就是像手風琴般的摺紙結構。濾材會被反覆摺疊、摺成手風琴的形狀,中間則用鋁箔或特殊的防潮紙進行結構支撐,目的是增加表面積。這不僅為了捕獲更多微粒,而是要「降低過濾風速」。這聽起來可能有點反直覺:過濾不是越快越好嗎?

其實,這與物理學中的流速控制有關。想像一條水管,如果你捏住出口,水流會變得湍急;若將出口放開並擴大,雖然總出水量不變,但出水處的流速會變得緩慢。對於 HEPA 濾網而言,當表面積越大,單位面積所需承載的空氣量就越少,空氣穿透濾網的速度也就越低。

低流速代表微粒停留在濾網內的時間也更久,增加被捕捉的機會。此外,越大的表面積也為 HEPA 濾網帶來了高「容塵量」,延長了使用壽命,這正是它能夠稱霸空氣清淨領域多年的主因。

-----廣告,請繼續往下閱讀-----

然而,即便都叫做 HEPA 高效率空氣微粒子過濾網 (High Efficiency Particulate Air filter),但每個 HEPA 的成分與結構還是會不一樣。例如 安麗逸新空氣清淨機 SKY ,其標榜「可過濾粒徑最小至 0.0024 微米」的污染物,去除率高達 99.99%。

0.0024 微米是什麼概念?塵蟎、花粉、皮屑或黴菌孢子,大小約在 2 至 200 微米;細懸浮微粒  PM2.5 大小約 2.5 微米,細菌也大概這麼大。最小的其實是粒徑小於 0.1 微米的「超細懸浮微粒」,大多數的病毒(如流感、新冠病毒)都落在此區間。對安麗逸新 的HEPA濾網來說,基本上通通都是可被攔截的榜上名單。

在過敏防護上,它更獲得英國過敏協會(Allergy UK)認證,能有效處理 19 大類、102 種過敏原,濾除空氣中超過 300 種氣態與固態污染物。

同樣的過濾邏輯一旦進入半導體無塵室,就必須換一條更為嚴苛的技術路線。因為硼矽酸鹽玻璃纖維對晶圓來說有個致命傷,就是「硼 (Boron)」 / 圖片授權:Shutterstock

然而,同樣的過濾邏輯一旦進入半導體無塵室,就必須換一條更為嚴苛的技術路線。因為硼矽酸鹽玻璃纖維對晶圓來說有個致命傷,就是「硼 (Boron)」。

在半導體製程中,硼是常見的 P 型摻雜物,用來精準改變矽晶圓的電性。如果濾網有任何微小的破損、老化或化學侵蝕,進而釋放出極微量的硼離子,就可能直接污染晶圓,改變其導電特性,導致晶片報廢。

此外,無塵室要求的是比 HEPA 更極致的 ULPA(超低穿透率空氣濾網) 等級的潔淨度。ULPA 的標準通常要求對 0.12 微米 的粒子達到 99.999% 甚至 99.9999% 的超高攔截率。在奈米級的競爭中,任何多穿透的一顆微塵,都代表著一筆不小的經濟損失。

-----廣告,請繼續往下閱讀-----

為了解決「硼」的問題並追求極限的過濾效率,材料學家搬出了塑膠界的王者,PTFE 也鐵氟龍。鐵氟龍不僅耐酸鹼、耐腐蝕,還能透過拉伸製成直徑僅 0.05 至 0.1 微米 的極細纖維,其細度遠勝玻璃纖維。雖然 PTFE 耐化學腐蝕,但它既昂貴且物理上也很脆弱,安裝時若不小心稍微觸碰,數萬元的濾網就可能報銷。因此,你只會在晶圓廠而非一般家庭環境看到它。

即便如此,在空氣濾淨系統中,還有一樣是無塵室和你家空氣清淨器上面都有的另一張濾網,就是活性碳濾網。

活性碳如何從物理攔截跨越到分子吸附?

好不容易將微塵擋在門外時,危機卻還沒有解除。因為空氣中還隱藏著另一類更難纏的大魔王:AMC(氣態分子污染物)

HEPA 或 ULPA 這類物理濾網雖然能攔截固體微粒,但面對氣態分子時,就像是用網球拍想撈起水一樣徒勞。這些氣態分子如同「幽靈」一般,能輕易穿過物理濾網的縫隙,其中包括氮氧化物、二氧化硫,以及來自人體的氨氣與各種揮發性有機物(VOCs)。

-----廣告,請繼續往下閱讀-----

為了對付這些幽靈,我們必須在物理防線之外,加裝一道「化學濾網」。

這道防線的核心就是我們熟知的活性碳。但這與烤肉用的木炭不同,這裡使用的是經過特殊改造的「浸漬處理(Impregnation)」活性碳。材料科學家會根據敵人的不同性質,在活性碳上添加不同的化學藥劑:

  • 酸鹼中和:對付氮氧化物、二氧化硫等酸性氣體,會在活性碳上添加碳酸鉀、氫氧化鉀等鹼性藥劑,透過酸鹼中和反應將有害氣體轉化為固體鹽類。反之,如果添加了磷酸、檸檬酸等酸性藥劑,就能中和空氣中的氨氣等鹼類。
  • 物理吸附與凡德瓦力:對於最麻煩的有機揮發物(VOCs,如甲醛、甲苯),因為它們不具酸鹼性,科學家會精密調控活性碳的孔徑大小,利用龐大的「比表面積」與分子間的吸引力(凡德瓦力),像海綿吸水般將特定的有機分子牢牢鎖在孔隙中。
活性碳如何從物理攔截跨越到分子吸附? / 圖片來源:Amway

空氣濾淨的終極邏輯:物理與化學防線的雙重合圍

在晶圓廠這種對空氣品質斤斤計較的極端環境,活性碳的運用並非「亂槍打鳥」,而是一場極其精密的對戰策略。

-----廣告,請繼續往下閱讀-----

工程師會根據不同製程區域的空氣分析報告,像玩 RPG 遊戲時根據怪物屬性更換裝備一樣——「打火屬性怪要穿防火裝,打冰屬性則換上防寒裝」。在最關鍵的黃光微影區(Photolithography),晶圓最怕的是人體呼出的氨氣,此時便會配置經過酸性藥劑處理的活性碳進行精準中和;而在蝕刻區(Etching),若偵測到酸性廢氣,則會改用鹼性配方的濾網。這種「對症下藥」的客製化邏輯,是確保晶片良率的唯一準則。

而在你的家中,雖然我們無法像晶圓廠那樣天天進行空氣成分分析,但你的肺部同樣需要這種等級的保護。安麗逸新空氣清淨機 SKY 的設計邏輯,正是將這種工業級的精密防護帶入家庭。它不僅擁有前述的高規 HEPA 濾網,更搭載了獲得美國專利的活性碳氣味濾網。

關於活性碳,科學界有個關鍵指標:「比表面積(Specific Surface Area)」。活性碳的孔隙越多、表面積越大,其吸附能力就越強。逸新氣味濾網選用高品質椰殼製成的活性碳,並經過高溫與蒸氣的特殊活化處理,打造出多孔且極致高密度的結構。

這片濾網內的活性碳配重達 1,020 克,但其展開後的總吸附表面積竟然高達 1,260,000 平方公尺——這是一個令人難以想像的數字,相當於 10.5 個台北大巨蛋 的面積。這種超高的比表面積,是市面上常見濾網的百倍之多。更重要的是,它還添加了雙重觸媒技術,能特別針對甲醛、戴奧辛、臭氧以及各種細微的異味分子進行捕捉。這道專利塗層防線,能將你從裝潢家具散發的有機揮發氣體,或是路邊繁忙車流的廢氣中拯救出來,成為全家人的專屬空氣守護者。

總結來說,無論是造價百億的半導體無塵室,還是守護家人的空氣清淨機,其背後的科學邏輯如出一轍:「物理濾網攔截微粒,化學濾網捕捉氣體」。只有當這兩道防線同時運作,空氣才稱得上是真正的「乾淨」。

進一步了解商品:https://shop.amway.com.tw/products/2071?navigationType=brand&

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
247 篇文章 ・ 319 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

5
0

文字

分享

0
5
0
來當一日語音設計師——如何設計好聽的合成語音?
雅文兒童聽語文教基金會_96
・2023/03/31 ・3727字 ・閱讀時間約 7 分鐘

  • 文/邱彥哲|雅文基金會聽語科學研究中心 助理研究員

「Hey, Siri!」「OK, Google!」你曾經對手上的行動裝置說話嗎?你會要求他回答什麼呢?受限於目前的技術,你可能不會得到非常滿意的答案,但至少你會聽到一陣悅耳如同真人的語音吧!這項現今習以為常的技術,其實背後是由很多知識累積而成的。今天,讓我邀請你擔任一日「語音設計師」,從語音合成的技術開始,接著了解人類使用者的聽覺偏好,最後探索不同族群對聆聽合成語音的差異吧!

語音助理進駐現代人的日常生活。圖/freepik

語音合成(speech synthesis),是指以人工方式,製造出說話的聲音,可以理解為使機器裝置說出人話的技術。廣義來說,很多人也會把文字轉語音(Text to Speech,簡稱 TTS),含括在語音合成的範疇。

語音合成像樂高,但樂高有兩種

早在 1970 年代,人類就已經開始嘗試讓機器說話了。構思如何讓機器說話這件事,最直接的方式就是請真人錄一段聲音,然後在指定的時機播放。不過,面對複雜的語言情境,我們不可能錄下所有可能的回應 ; 而且若要這樣做,也實在太沒效率。幸好,借助電腦運算技術,可以讓人類向自動生成語音邁進一大步。合成的方法可以分成兩大類,分別是單元選取合成(Unit Selection Synthesis)及參數合成(Parametric Synthesis)[1]

單元選取合成這種方法,是將某個語言的語音成分分別以人聲錄製起來,再根據需要的目標語音進行組合。簡單來說,如果需要機器說發出「八」的語音,就必須單獨錄製「ㄅ」跟「ㄚ」。這個技術聽起來直觀方便,但也有缺點。就是事先必須建立一個龐大的語音資料庫,這個資料庫必須包含一個語言所有語音成分,此外,還必須錄下這些語音成分在所有情境下的變化,光想起來就令人有點頭痛。

-----廣告,請繼續往下閱讀-----

所以後者,參數合成,就顯得方便許多。這種方法,是直接將語音參數輸入電腦,讓電腦直接根據參數發出聲音,再組成語音。使用參數合成,就可以免去請人錄音的步驟,但直接使用電腦生成的語音,聽起來也會相對不自然。我們可以把這兩類方法想像成是在組合樂高,都是將語音成分一塊一塊組合起來,只是前者的樂高是自然材質(比如說木頭製),後者是人造材質(比如說塑膠)。

借助深度學習,電腦說話很自動

不過,無論是上述哪種方法,都還是需要不少的人工調校,才能使聲音逐步接近人類的語音。但還好,隨著電腦演算的進步,將深度學習(deep learning)運用在語音合成的領域,不但減少了人工成本,也大大提升的語音的擬人性。所謂深度學習,簡單來說就是一套模擬人類神經網絡的演算法。

使用這樣的演算法,設計者只需蒐集大量的語音資料,將資料「餵」給電腦,無須事先切分或分析,電腦便會自動學習其中的規律。如此一來,只要資料數量足夠龐大,電腦就可以自動產生符合自然規律且真實的語音。

但是,身為一位語音設計師,要進一步思考的是:「究竟要餵給電腦什麼呢?」這個問題又必須從使用者的角度來思考:「人類會偏好聆聽什麼樣的語音?」就像生產商品一樣,語音百百款,要能投其所好,才能讓使用者日日寸步不離,對吧!

-----廣告,請繼續往下閱讀-----

聆聽也要投其所好,性別頻率最重要

人類對不同性別及頻率有特殊的聆聽偏好。圖/freepik

關於合成語音的聆聽偏好,最先被討論的,是性別。雖然我們都知道機器沒有性別,但若希望他和人一樣跟你互動,投射性別是很自然的。不過有人就提出質疑:「為什麼我們的語音助理,都是女性的聲音呢?」美國西北大學梅迪爾傳播新聞整合行銷學院教授 Candy Lee 進行一項調查,測試了 8 種族裔的使用者,結果發現 64% 的人只偏好女性的聲音[2]

這樣看起來,預設為女性的聲音應該是沒問題的吧?不過,有人認為這是社會對「助理」的性別刻板印象所致;因為社會習慣女性作為「服務者」,所以在設計語音時,直覺地就挑選了女性聲音。雖然單就頻率方面,的確有研究指出,使用者確實是偏好頻率較高的合成語音[3],但若是一昧如此,也極有可能不斷複製性別偏見的印象[4]

有鑒於此,越來越多系統開始提供男性語音的選項。更甚者,哥本哈根研究團隊突發奇想,不以性別為選項,而是改以頻率作為調查標準。分析之後,他們得到一個最佳的頻率值──185 赫茲,設計出史上第一個無性別語音助理「Q」[5]。如此一來,青菜蘿蔔各有所好,聆聽的偏好也朝著多元共好的目標邁進!

聽得舒服,語速考量不能少

解決的性別與頻率的問題,還得注意甚麼呢?專門研究輔助溝通系統(Augmentative and Alternative Communication,簡稱 AAC)的專家想到了語速的問題。輔助溝通系統可以簡單理解成「溝通輔具」,是用以輔助溝通障礙者溝通的工具; 簡單如圖卡,複雜如電子溝通板,都算是其中一員。而像是電子溝通板這類,以螢幕顯示圖片,點擊後可以播放語音的輔具來說,合成語音是很關鍵的技術。

-----廣告,請繼續往下閱讀-----

這些溝通障礙專家想知道:「究竟什麼樣的語音速度,是最舒服的呢?」。

Sutton 與其研究團隊招募了 21 至 28 歲的年輕人與 61 至 79 歲的年長者,對合成語音進行語速評分[6]。語速的計算方式,採用每分鐘幾個字(Words per minute,簡稱 WPM)計算。他們將合成語音調整成不同的語速,範圍介於 120 到 250WPM 之間。結果發現,無論年輕人或年長者,偏好的語速都落在 150 到 200WPM 之間 ; 而年長者則是相對年輕人偏好較慢的語速。這樣的範圍,其實與過去研究提出的人類平均語速,相去不遠[7]

如果想知道不同語速聽起來感受如何,可以到合成語音軟體 Speechify[8]的網站試用,自行調整語速(以 WPM 計算),細細品味其中差異。或者,讓我為你朗讀,請聽示範(語速約 180WPM,內容為「我是彥哲,我是普通人。」)! 

可見,語音合成的技術雖是極為理性的領域,但若要設計出美妙的語音,對人類感性的理解,也絕對不能偏廢。

-----廣告,請繼續往下閱讀-----
圖/Pixabay

合成語音聆聽不易,考量族群差異最貼心

「所以,我只要想辦法把語音設計得很像人類就可以了吧?」你可能會這樣想,不過這裡頭還少了一個部分。現代社會提倡多元,客製化當道,每個人使用同個產品的狀況必然會有差異。

其實,即使是一般人,聆聽並理解合成語音是比自然語音更加困難的。Winters 及 Pisoni 發表的回顧研究指出:由於合成語音的清晰度普遍較差,因此聆聽者通常需要動用更多的認知資源(像是電腦需要動用較多記憶體),以及更多高層次的語言知識來彌補語音訊息的不完整[9]。如果對普通人來說是如此,對於某些特殊族群來說,想必有更加需要注意的地方。

比如說兒童。Mirenda 及 Beukelman 招募了成年人、10 至 12 歲以及 6 至 8 歲的兒童進行研究[10]。參與者的任務,是要在聽完自然語音及合成語音播放的八個詞彙之後,再將這八個詞彙回憶並說出來,回答無須按照順序。結果研究者發現,兩組兒童無論聆聽自然或合成語音,回憶詞彙的表現都比成人還差 ; 對於兩組兒童而言,記憶合成語音的表現又更不理想。

由此可知,兒童本身的記憶能力就較成年人弱,在聆聽合成語音時,可以說是是難上加難。

-----廣告,請繼續往下閱讀-----

另一個被探討的,是聽障族群。聽障族群最主要的困難,就在於聆聽。聆聽合成語音如果對聽常族群來說本來就比較困難,那對聽障族群應該是更加艱困的挑戰吧!Kangas 和 Allen 的研究[11]回答了這個問題。研究者請年長聽障者聆聽自然語音與合成語音,並請他們在聆聽後寫出聽到的單字。結果可想而知,聽障者確實在聆聽合成語音的部分表現得比較差。

看完上面的狀況,身為語音設計師的你,在設計語音的時候,是不是也應該從使用者的背景差異去調整你的語音呢?也許是調整語音的頻率,也許是調整語速,也可能,也可能有更多領域需要探索。唯有這樣,才能朝充滿人性又個人化的智慧語音邁進。

怎麼樣?沒想到要設計語音,希望機器說出一句話,背後涉及理性的技術與感性的考量,非常不容易吧!看完之後,你還是可以輕鬆地要求你的行動裝置說個笑話,唱首歌給你聽,自娛娛人;但也千萬別忘記,多留點心思,給這人類文明的結晶致上敬意。一日語音設計師,功成身退!

參考資料

  1. 詹姆士・弗拉霍斯。(2019)。從說話機器人到聊天機器人。聲控未來:引爆購物、搜尋、導航、語音助理的下一波兆元商機(孔令新譯,頁104-137)。商周出版。
  2. Marc Jacob.(2022/3/30). Medill Study Finds Preference for Female Voices and Local Accents. Northwestern Medill Local News Initiative.
  3. 顏宏旭,楊麗平,宋慧宏。(2020)。聽眾對語音合成導覽裝置聲音偏好之探討。戶外遊憩研究。33(4),83-107。
  4. West, M., Rebecca K., & Chew H.E. (2019). I’d Blush if I Could: Closing Gender Divides in Digital Skills Through Education.UNESCO & EQUALS Skills Coalition.
  5. GenderLess Voice. (2023/3/3) Meet Q [Web message].
  6. Sutton, B., King, J., Hux, K., & Beukelman, D. (1995). Younger and older adults’ rate performance when listening to synthetic speech. Augmentative and Alternative Communication, 11(3), 147-153.
  7. Walker, V. G. (1988). Durational Characteristics of Young Adults during Speaking and Reading Tasks. Folia Phoniatrica et Logopaedica, 40(1), 12–20.
  8. Speechify. (2023/3/3) Speechify.
  9. Winters, S. J., & Pisoni, D. B. (2004). Perception and comprehension of synthetic speech. Research on spoken language processing report, 26, 95-138.
  10. Mirenda, P. & Beukelman, D.R. (1987). A comparison of speech synthesis intelligibility with listeners from three age groups. Augmentative and Alternative Communication, 3, 120-128.
  11. Kangas, K.A. & Allen, G.D. (1990). Intelligibility of synthetic speech for normal-hearing and hearing impaired listeners. Journal of Speech and Hearing Disorders, 55, 751-755.
-----廣告,請繼續往下閱讀-----
雅文兒童聽語文教基金會_96
63 篇文章 ・ 224 位粉絲
雅文基金會提供聽損兒早期療育服務,近年來更致力分享親子教養資訊、推動聽損兒童融合教育,並普及聽力保健知識,期盼在家庭、學校和社會埋下良善的種子,替聽損者營造更加友善的環境。