0

1
0

文字

分享

0
1
0

剖析霍金的「代言人」:人機如何透過語音互動溝通?

活躍星系核_96
・2018/03/28 ・7723字 ・閱讀時間約 16 分鐘 ・SR值 521 ・七年級

-----廣告,請繼續往下閱讀-----

  • 作者/施登騰 中國科技大學互動娛樂設計系主任
史蒂芬・霍金(Stephen Hawking )博士。 圖/Lwp Kommunikáció

今年(2018)年 3 月 14 日傳來史蒂芬・霍金(Stephen Hawking )博士 76 歲長眠的消息,舉世同哀。早上開電腦上網後,看到有更多他的相關消息與回顧,這些熱烈討論從昨天到今天都仍持續不斷著。

霍金的語音代言人

圖/《愛的萬物論》劇照

曾與家人一同欣賞史蒂芬・霍金的傳記電影「愛的萬物論 (The Theory of Everything)」(頗喜歡這中英文片名),不過沒看他的「時間簡史」,只借閱過他親筆自傳《我的人生簡史》。電影透過戲劇呈現霍金博士的生平,算來是個奇特經驗。我們比較熟悉的霍金博士,是那個因罹患漸凍症,後來失去說話能力,需透過電腦語音代言,卻仍不減溝通能力與幽默的霍金博士。當然,電影中也演出了這段經歷,透過電腦語音重拾溝通能力並不簡單。

網路上可以找到霍金博士親自說明,電腦語音如何協助他發言,可以點以下影片聆聽他的熟悉聲音。

還有一個網站提供「霍金聲音生成器 (Stephen Hawking Voice Generator)」。霍金博士在影片中提到,他當時使用的語音合成軟硬體設備,是由「劍橋精益通訊公司(Cambridge Adaptive Communication)」的 David Mason 幫他裝設在電動輪椅後面;使用的是一款名為「Equalizer (等化器)」的軟體,由加州電腦專家華托茲(Walt Woltosz)於 1985 年幫霍金博士研發的,這在他的自傳中也有提到。

-----廣告,請繼續往下閱讀-----

這合成的聲音不僅像機器人說話,而且還有美國口音。《Meet the man who lent Stephen Hawking his voice》(將聲音借給霍金的人)這篇報導中,作者 Rachel Kraus 引述雜誌《Wired》的深入報導,寫到這個聲音原屬 Dennis Klatt 這位美國麻省理工的學者,以他自己的聲音透過電腦合成而成。在 80 年,當霍金博士失去口語能力時,找到了 Dennis Klatt 所合作的《DECtalk》公司的語音合成軟體(Speech synthesizer),透過文字輸入方式進行語音合成(Text-to-Speech,TTS)。

霍金親述他是如何透過科技說話溝通的。 圖/〈Stephen Hawking – How is he talking?〉影片。

目前霍金所使用的語音合成軟體《Equalizer》已經提供開源碼,希望能嘉惠更多有需要的人;正式的官方名稱為「Assistive Context-Aware Toolkit (輔助式語意感知工具包)」,適用於有 Windows 7 以後的版本、使用 C# 語言;不支援 Mac 系統。有需要進一步資訊的話, 雜誌《Wired》2015 年 8 月的這篇報導「You Can Now Use Stephen Hawking’s Speech Software For Free」(免費使用霍金用的說話軟體!)會更清楚。

由於漸凍症的緣故,霍金博士除了逐漸失去說話能力;即使電腦語音的拼字輸入方式,也因症狀加劇而逐漸弱化。到了後期,霍金博士甚至需要借助 IR 去偵測臉頰肌肉運動進行輸入控制,使用的是《Words Plus》公司的軟體《EZ Keys》,只要輸入幾個字,前方螢幕會據以顯示候選字句,讓霍金博士以臉頰的微幅動作控制選字句組合,然後再透過 《Equalizer》轉成聲音檔,也就是那個美國口音的機器人聲 。

據 Rachel Kraus 引述雜誌《Wired》報導,霍金博士不僅在《DECtalk》公司進行語音合成軟體升級時,要求使用原聲音檔,甚至後來 Intel 為他建置新的軟體時,還在他的堅持下,找回 Dennis Klatt 的原始聲音檔去進行軟體升級。大家可以欣賞「Master Of The Universe: Stephen Hawking」(宇宙大師:霍金)這部紀錄片,片中 22:10~22:40 這一段就有霍金博士以臉頰動作輸入文字的畫面。

-----廣告,請繼續往下閱讀-----
圖/〈How Does Stephen Hawking Talk?〉影片

人機互動──語音助理可以做到什麼?

這令人遺憾的新聞確實讓我想到「人機互動 (HCI)」的發展(很抱歉),加上最近跟好友借用了《Amazon Echo》跟《Echo Dot》來玩,常常在早上就使用,會「請」Alexa 服務,說聲「Alexa, Play music.」,Amazon 的語音助理 Alexa,就會幫我播「70 年代電台音樂」,也玩過《Jeopardy 猜謎》,這是 24,000 多個 Alexa Skills(技能)提供的服務(根據 2017.12 數據)。

圖/Amazon

Amazon 也開放 Alexa Skills Kit,歡迎第三方參與開發。iOS 的 Siri 自然我也常用,因為上下班搭車移動中習慣戴耳機,所以都會長按耳機控制鈕呼叫出Siri,要她播音樂或撥電話。但有許多科技報導說得很直白,直接指出 Siri 不僅被遠遠拋在 Amazon Alexa 與 Google Assistant 後面,更不用說相關應用根本跟不上Amazon Alexa Skills 與 Google Me-Too 的第三方應用那樣的快速發展。

也有篇科技新訊提出相關分析,並特別點出三家公司在發展「Voice First Platform」這種新型個人數位服務與應用平台上的顯著差距,或許會成為影響三家公司發展前景的致命關鍵。

Amazon Echo 語音助理裝置。圖/作者拍攝。

替 Siri 配音的人

此外,再談談原音重現。就像霍金博士的語音合成的原音是 Dennis Klatt。iOS Siri 在發音上非常接近自然人聲,而最常用的女音則是 Susan Bennet 的聲音組合的(見下圖),而男聲版本的,可以查到資料的是幫英國 Siri 版配音的 Jon Briggs,他算是 iPhone 4 第一代 Siri 的男聲。

-----廣告,請繼續往下閱讀-----

而根據 Susan Bennett 接受訪問的錄音內容「Siri is dying. Long live Susan Bennett,她提到她在2005年接到一個配音委託,當時她不知道這些錄音是做什麼用的,整整花了 1 個月,每天 4 小時去錄許多短句,後來還是同事在 2011 年問她,她才知道是用在 Siri 的人聲語音服務上。只不過 Apple 也未曾正式承認 Susan Bennett 就是 Siri 這個機器人助理的幕後人聲。

但對 Susan 來說,至少 CNN 請了專家鑑定確定,她在 TED 以「Accidentally Famous: The Story Behind the Original Voice of Siri 」為題演講過;但根據報導,Jon Briggs 卻還接到 Apple 電話,被要求不要公開談論他就是 Siri 的男聲,理由就是「不希望 Apple 的數位語音助理被聯想到特定的人」。他們兩位曾同時被訪問過這些特殊經驗,有興趣者可以看這篇訪問稿:「Hey, Siri! Meet the real people behind Apple’s voice-activated assistant」。

siri 的幕後配音員 Susan Bennett 。 圖/Susan Bennett 個人網站

如何讓數位語音助理「聽起來」越來越像人?

那就接續談談在發音上越來越接近人聲的數位語音助理(Digital Voice Assistant)吧!

之前在「The Voice of Museum」這篇分享中(博物館學會網站刊載連結),曾於針對博物館科技應用談到「數位語音助理」與「語音服務」時,有提到如下的內容:

-----廣告,請繼續往下閱讀-----

無論是把 Echo、 Siri,、Cortana 稱之為語音助理(Voice Assistant)、虛擬助理(Virtual Assistant)、人工智慧助理(AI Assistant、AI-Powered Virtual Assistant),而且就像「The Surprising Repercussion of Making AI Assistants Sound Human」以及「Why Do So Many Digital Assistants Have Feminine Names」談到的議題,我們對人工智慧科技服務的具體想像,其實不是機器人助理,而是更接近「人」的虛擬助理,無論是在語音對答服務時更像真人的語調,或者是在命名與性別上。

文章中提到所謂的「依存互動 Contingent Interaction」,並引用研究說人類比較能夠對可以來回反應、對話與互動的人事物有所連結。報導也都提出不僅「擬人 Humanlike」是具體目標,兼有個性與實用性(Personality and Utility)的虛擬助理服務也是眾所企求的。

這也讓我想起在智慧博物館《AI 上博物館中,引述 Deeson 廣告公司的科技策略總監 Ronald Ashiri 在文章How Museums Are Using Chatbots》(博物館如何應用聊天機器人),其中的概念「Giving chatbots a face」(賦予聊天機器人個性形貌)。就從上述所分享的實際案例來看,目前的人工智慧發展已讓「想像」逐漸成真。

其中所提的數位語音助理的 Humanlike、擬人化anthropomorphic)傾向,以及命名女性化的特徵,在在顯示了數位助理的研發,是在追求一個全知的 AI 語音助理;或許在具體樣貌上,就會越來越接近電影《鋼鐵人》的人工智慧助理:J.A V.I.S. (Just Another Rather Very Intelligent System的縮寫) 。

圖/《鋼鐵人》劇照 @The Verge

人機互動的溝通:語音轉文字,文字轉語音

前面提到,霍金博士透過軟體《EZ Keys》選擇字句,再由軟體《Equalizer》轉譯成聲音。這種 Text-to-Speech(TTS,文字轉語音)的數位轉譯形式對現在的數位技術來說其實是很簡單的應用,因為已有很多 App 都能支援,即使是逆向工程:Speech-to-Text(STT,語音轉文字),也已經很普及,像是現在手機輸入法中內建的語音輸入法。

-----廣告,請繼續往下閱讀-----

特別再提及這點,是因為「文字」與「語音」都是與 AI 數位助理溝通的重要媒介與元素。就如同在《AI 上博物館》與《AI 上互動娛樂設計系》[註1](這兩篇所介紹的許多數位語音應用,博物館與其不同業界所使用的「AI 聊天機器人」,不管是「純簡訊服務類(text messaging service)」、「即時對話服務類 (chatbot conversational service) 」、「問與答諮詢類(Q&A chatbot service)」類;基本上,人機互動都是透過「文字」或/與「語音」溝通。

像 Google 就研發了專屬的「語音合成標記語言」( the Speech Synthesis Markup Language;SSML )技術來支援語音合成應用程式,並操控互動語音系統;使得與 AI 數位語音助理的對話,可以像是跟某人說話互動一樣。

舉兩個實際的應用案例:

Google Story Speaker (互動故事閱讀器)

基本概念是將在網路文件編輯器 《Google Doc 》上所編寫的互動腳本(文字檔),透過 Add-On (附加元件)加入應用程式《Story Speaker》,就可以使用智慧管家《Google Home》或語音助理《Google Assistant》,以語音播放;「文字朗讀功能(TTS)」再加上「語音辨識功能(STT)」,就可以讓《Google Home》成為《Story Speaker》,而且還會在特定段落詢問閱聽者的決定,提供不同路線的故事內容,導引到不同的故事結局。

-----廣告,請繼續往下閱讀-----

Google Grilled Murder Mystery(互動偵探角色扮演)

此應用的概念,是讓玩家在這個語音互動應用程式中的謀殺案中扮演偵探的角色,玩家透過訪問四名嫌犯中的每一名去調查餐館老闆的命案的線索,以確定誰才是兇手。此應用程式也使用了 SSML 語音合成標記語言技術,所以玩家就像是透過一位「助理」的協助,進行命案的偵查。

由 Google 開發的人工智慧語音互動遊戲「Grilled Murder Mystery」。 圖/Grilled Murder Mystery

現代人工智慧可以執行什麼任務?

所以無論與語音助理之間的溝通,是透過 TTS 或 STT 形式,在未來,透過人工智慧、自然語言處理、機器學習等先進技術的導入,要在現實生活中有 JAVIS 協助打點一切,並提供全知的資訊服務,並非不可能。

語境(Context)」、「語言(Language)」、「推理(Reasoning)」被視為人工智慧的三大挑戰,但如果是要考慮的 AI 數位語音助理之研發應用的話,它們也是機器學習、自然語言處理兩項技術的重大挑戰。

現如今,金融特別是一個全面採用 AI 技術、自動化技術的行業,也就是大家熟悉的 FinTech 趨勢。針對「數據資料導向任務(Data-Driven Task)」的自動化來說,AI 技術已被充分運用了,AI 財經機器人已能自動撰寫處理「基金財務報告 Fund Reporting」、「損益分析報告 Profit & Loss Reports」、「信用管理報告 Credit Management Reporting」、「銷售報告 Sales Reporting」(資料來源)。看來,許多挑戰已隨著應用需求與科技發展,而逐漸被克服。

-----廣告,請繼續往下閱讀-----

而我的重點是,人工智慧技術、機器學習模型已經能夠自動判斷文本的結構和含義,像是根據霍金博士輸入的幾個字,自動判斷後提供「選用字句(Candidate Sentence)」,有效減少輸入次數;或者像前面例舉的「互動偵探角色扮演(Grilled Murder Mystery)」此一類型的智慧語音應用。

「全知型」互動對話導覽服務

在 TTS、STT、AI、Machine Learning、NLP 等技術的持續發展,以及典藏資料庫的內容支援下,很期待未來有機會在博物館、商展、展演機構見到「全知型」互動對話導覽服務的出現。

梵谷自畫像。 圖/ The Art Institute of Chicago via Google Arts & Culture

下圖是使用自然語言處理(NLP)技術,利用分析器(Parser)將一段「畫作說明文字」(梵谷自畫像)進行語法分析(Syntactic analysis)的結果。這段「畫作說明文字」在數位處理分析後,由分析器解構成各個詞彙單位,並呈現其結構和含義。語法分析也用來建立樹狀的語法樹(syntax tree),透過中間表述提供詞彙單位串流的語法結構。

該段說明文字如下:

Vincent van Gogh painted his first known self-portrait in 1886, following the model of the 17th-century Dutch artist Rembrandt. But by the time he made this work, a year later, he had clearly shifted his allegiance from the Old Masters to the Parisian avant-garde. Under the influence of Neo-Impressionist color theory, he based this painting on the contrast of complementary colors.

Syntax分析結果見下圖:

語法分析(Syntactic analysis)圖。 圖/作者提供

也就因為這些強大的數位技術支援,我們與機器的「文字」或「語音」互動對話,都能更自然,人工智慧更思考能力,人機互動更接近我們的日常行為。所以數位科技讓因為漸凍症無法言語的霍金博士仍能繼續寫作、演講;相信數位科技也打開了與具有龐大內容的數位語音助理/電腦/資料庫進行深度互動的機會。

WATSON,美術館中的全知數位導覽員

我個人認為的理想數位導覽應用典型,應該是是巴西奧美廣告公司與 IBM 公司合作,於 2017 年 6 月在巴西聖保羅博薩博物館(Pinacoteca do Estado de Sao Paulo) 所推出的數位導覽服務《The Voice of Art / with WASTON》

這個 App 使用的數位語音技術就是由 IBM 研發的《WATSON》。研發團隊為了培養 WATSON 的應答能力,共花了 6 個月時間與西聖保羅州立博物館策展人和研究員合作,以大量的書籍、報導、傳記、訪談、網路資料、影片讓 WATSON 透過機器學習累積對於藝術作品豐富知識與答案,並擴大可對話與提供回覆的範疇,WATSON 就像個全知的數位導覽員。

在「The Voice of Art / with WASTON」的宣傳影片中,研發人員說:

「用預錄的聲音介紹藝術史,並不是真正的互動。」

所以他們花了非常大的努力,希望讓 WASTON 與使用者有更自然的對話。影片中,有位小孩則看著肖像畫,問畫中人物說「你喜歡踢足球嗎?」。我想 WASTON 的確做到了!!!!

小朋友透過導覽器問說:「你喜歡踢足球嗎?」 圖/ADWEEK
-----廣告,請繼續往下閱讀-----
文章難易度
活躍星系核_96
778 篇文章 ・ 127 位粉絲
活躍星系核(active galactic nucleus, AGN)是一類中央核區活動性很強的河外星系。這些星系比普通星系活躍,在從無線電波到伽瑪射線的全波段裡都發出很強的電磁輻射。 本帳號發表來自各方的投稿。附有資料出處的科學好文,都歡迎你來投稿喔。 Email: contact@pansci.asia

0

0
0

文字

分享

0
0
0
E10 低碳汽油:台灣減碳新契機,為何我們應該接受?
鳥苷三磷酸 (PanSci Promo)_96
・2025/01/17 ・3468字 ・閱讀時間約 7 分鐘

-----廣告,請繼續往下閱讀-----

本文與美國穀物協會合作,泛科學企劃執行。

台灣將在 2040 年禁售燃油車。但別急,現在路上開的舊有車款不會馬上報廢消失,因為舊有的車輛會繼續開到年限結束。根據計算,當禁售燃油車的那一天來臨時,還有大約 60% 的車輛是燃油車。這時,在多數交通工具還是燃油的情況下,美國、歐盟等國已經開始使用酒精燃料來減少碳排放,那麼,台灣也能做到嗎?

你聽過 E3、E10 汽油嗎?

這是指在汽油中加入酒精,E3 代表有 3% 的汽油被酒精取代,而 E10 則是 10% 的汽油換成酒精。酒精是一種抗爆震性能更好的燃料,且比化石燃料更環保,因為它可以來自生質燃料,碳排放也較低。即便算上運輸和加工的碳足跡,用玉米製造的乙醇仍比傳統汽油的碳排放低了 43%。其實,在美國、歐洲、澳洲等地,E10 或更高比例的酒精汽油早已廣泛使用,這在我們之前的影片中也有提過。

現在,台灣有 14 間加油站可以加到 E3 汽油,而中油也正積極促使相關部門開放 E10 汽油的銷售。

-----廣告,請繼續往下閱讀-----

不過,在推動這項改變之前,仍有許多民眾對酒精汽油有疑慮。大家最關心的問題是,把不是汽油的燃料放到引擎中,到底會不會對車輛引擎造成不良影響?例如會不會影響引擎運行,甚至影響里程數?
其實,換燃料確實會對引擎有影響,因為不同燃料燃燒後所產生的能量與副產物都不一樣。但別擔心,根據我們之前的討論,2011 年以後生產的所有汽車,還有大部分 1990 年代後期生產的汽機車,都能直接相容 E10 汽油。換句話說,除了少數舊車或特殊車型,約 95% 的汽機車都不需要擔心這個相容性問題。

2011 年以後生產的所有汽車,還有大部分 1990 年代後期生產的汽機車,都能直接相容 E10 汽油。圖 / 美國穀物協會提供

E10 汽油在效能上的表現,會不會受到影響?

學過化學的人都知道,燃燒其實是一種氧化反應,可以用化學式表達。也就是只要汽缸的大小是固定的,就能算出空氣中能參與氧化反應的氧氣分子有多少,進而推算出每次汽缸燃燒時,應該搭配多少的燃料。

當引擎運作時,汽缸內的氧氣分子會與燃料反應,產生動力。為了最佳化效能,引擎的噴油嘴會精準控制每次的進油量,確保空氣和燃料的比例,稱為「空燃比」。接著調整噴油嘴的設定,讓出油量符合我們的需求。

每當空氣成分改變,燃料量或燃料的種類更換時,空燃比就會產生變化。在燃料相對空氣來說比較多時,我們通常稱為「富油」;相反的,如果燃料相比空氣來的少,就稱為「貧油」。如果我們把汽油換成百分之百的酒精,因為酒精每單位體積所需要的氧氣比較少,而且熱值比較低,因此會產生貧油現象,推力感受起來自然也會比較低。

要解決這個問題,方法其實不難,只要增加燃料量即可。而巴西早已證明,使用 E100 汽油是可行的。巴西近 50 年來推動 E85、E100 燃料車輛,並展示了彈性燃料引擎的優勢。

而巴西早已證明,使用 E100 汽油是可行的。巴西近 50 年來推動 E85、E100 燃料車輛,並展示了彈性燃料引擎的優勢。圖/美國穀物協會

這類交通工具被稱為彈性燃料引擎,顧名思義,能很彈性的使用汽油、E100 酒精汽油、或是任何比例的甲醇、乙醇、汽油的混合物。彈性燃料引擎跟一般引擎最大的差別,就是內建了「燃料成分感測器」。能透過判斷燃料的種類與比例,調整噴油嘴的出油量設定以及點火正時,讓引擎的輸出動力維持在最佳狀態,確保引擎效能不受影響。

-----廣告,請繼續往下閱讀-----

所謂的點火正時,指的是火星塞點火的時機。不同的燃料,化學反應的速度與膨脹的體積不同,當然會對應不同的點火時機。

但是 E100 其實也不是純酒精?

大家都知道,蒸餾酒需要經過多次反覆蒸餾,為什麼不能只蒸餾一次就好呢?原因在於,酒精與水的沸點雖然不同,但它們不完全互斥,會產生交互作用。在蒸餾過程中,即使酒精的沸點較低,水仍然會在加熱的過程中,隨著酒精部分蒸發進入容器中。

事實上,當酒精濃度達到 95.63% 時,不論再怎麼蒸餾,濃度也不會再上升。這是因為當酒精濃度接近這個比例時,酒精與水的沸點非常接近,這種現象稱為「共沸」,意思是酒精和水的混合物會一起沸騰,無法再進一步蒸餾分離。

共沸現象的結果,就是為什麼市面上銷售的藥用酒精,濃度最高都是 95%,而非 100%。因為更高濃度就必須使用脫水劑等方式處理,成本會提高,或是因為有添加物而不符合藥用標準。所以當然,E100 汽油裡面,實際上使用的也是濃度 95% 的酒精,而不是 100%。

-----廣告,請繼續往下閱讀-----
E100 汽油裡面,實際上使用的也是濃度 95% 的酒精,而不是 100%。 圖 / 美國穀物協會提供

解決迷思:酒精汽油是否容易因吸收水分,而產生油水分離?

事實上,酒精和水是高度互溶的,這使得高比例的酒精在汽油中有更高的水分耐受性。簡單來說,進入油箱的水氣,會溶在酒精汽油中而不會產生油水分離。

根據美國國家可再生能源實驗室的研究,即使在高溫高濕的極端環境下,E10 酒精汽油也需要經過三個月才會出現明顯的油水分離。而三個月也是一般汽油建議最長的保存時間,因為汽油放太久就會氧化。

也就是說,酒精與水混和物的特性,不是把酒精和水的相加除以二那麼簡單,它們的交互作用更加複雜。

一篇刊登在《國際能源研究期刊》的研究指出,在可變壓縮比引擎中的實驗結果,加入酒精後,引擎的功率會逐漸升高,在 E10 酒精時為最佳比例效果。

-----廣告,請繼續往下閱讀-----

當然,實際情況和實驗室當然不能直接類比。大多數汽車和機車並未專門為酒精汽油做調整,那這樣會有多大影響呢?根據英國政府的官方結論,直接使用 E10 汽油與一般汽油相比,每公升的里程數大約會降低 1%,但在日常駕駛中,這個差異幾乎不會被察覺。實際上,載貨量和駕駛習慣對油耗的影響,遠遠大於是否使用 E10 汽油的影響。

更好的一點是,酒精其實是一種常見的工業用品,以每美國為例,在過去一年中,酒精的離岸價格實際上都比汽油還低,因此不用擔心酒精會讓油價變貴。

此外,經過調校的引擎也不必擔心推力問題。事實上,F1 賽車從 2022 年開始使用 E10 作為燃料,納斯卡賽車更早在 2011 年就採用了 E15 燃料,運行上沒有太大問題。

F1 賽車從 2022 年開始使用 E10 作為燃料,納斯卡賽車更早在 2011 年就採用了 E15 燃料,運行上沒有太大問題。圖/unsplash

最重要的是,使用 E10 燃料的好處明顯更多。由於酒精和烷類燃料的分子式不一樣,酒精分子式中多了一個氧原子,這使得燃燒過程中反應會更完全,能夠產生更多二氧化碳而非有毒的一氧化碳,同時降低一氧化氮和二氧化氮等氮氧化物的產生。

-----廣告,請繼續往下閱讀-----

最關鍵的一點,酒精與化石燃料相比,能夠更快速地幫助減碳。只要確保使用永續農法、不與糧食競爭土地的前提下,所製造的玉米乙醇,碳排量就是比化石燃料還要低。

E10 低碳汽油是填補減碳缺口的最快方案,挑戰只在接受度

英國引入 E10 後,每年減碳 75 萬噸,相當於減少 35 萬輛汽車的碳排量。而台灣呢?目前根據政策規劃,台灣 2040 年起將新售的汽機車全面電動化。依照這個目標進程,在 2025 年將達成減碳 288.6 萬噸的目標。然而,這距離運輸部門須減少 487 萬噸碳排量目標,還差 198 萬噸。

如果燃油車全面改用 E10 低碳汽油,則能減碳 202 萬噸,幾乎能完全彌補缺口。這項方案的優勢在於,E10 與一般汽油性質相近,不需更換新的引擎設計或架設特規加油站,執行門檻低。

實際上,目前推動低碳汽油最大的瓶頸,大概就是民眾對於這個新燃料的接受度了吧!如果接受度提升,購買量上升,成本也有機會進一步再下降。

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度
鳥苷三磷酸 (PanSci Promo)_96
222 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

1
0

文字

分享

0
1
0
解密離岸風電政策環評:從審查標準到執行成效,一次看懂
鳥苷三磷酸 (PanSci Promo)_96
・2024/12/21 ・3546字 ・閱讀時間約 7 分鐘

-----廣告,請繼續往下閱讀-----

本文由 環境部 委託,泛科學企劃執行。 

政策環評是什麼,跟一般環評差在哪?

隨著公共建設的規模越來越大,傳統的環境影響評估(EIA),難以應對當今層層疊疊的環境議題。當我們評估一項重大政策時,只看「單一開發案」已經不夠,就像評估一棵樹,卻忽略了整片森林。因此,政策環境影響評估(SEA)應運而生,它看樹,也看森林,從政策的角度進行更全面的考量與評估。

與只專注於「單一開發案」的個案環評不同,政策環評更像是一場全面性的檢視,強調兩個核心重點:「整合評估」與「儘早評估」。簡單來說,這不再是逐案評估的模式,而是要求政府在制定政策時,就先全面分析可能帶來的影響,從單一行為的侷限中跳脫,轉而聚焦在整體影響的視角。無論是環境的整體變化,還是多項行為累計起來的長期影響,政策環評的目的就是讓這些潛在問題能儘早浮現、儘早解決。

除此之外,政策環評還像是一個大型的協商平台,以永續發展為最高指導原則,公開整合來自不同利益團體、民眾與各機關的意見。這裡,決策單位不再只是單純的「評分者」,而是轉為「協調者」或「仲裁者」,協調各方的意見看法在這裡得到整合,讓過程更具包容性。

-----廣告,請繼續往下閱讀-----

政策環評並沒有所謂的「否決權」,而是側重意見的蒐集與整合,讓行政機關在政策推動時,能更全面地掌握各方意見。政策環評旨在建立系統化、彈性的決策評估程序(包含量化、特徵化等評估方式),也廣納社會面或民眾滿意度等影響因子,把正式與非正式的作法一併考量進去。再來,決策程序中能層層檢討、隨時修正,也建立了追蹤機制和成效評估標準(如環境殘餘效應、累積效應等),透過學習來強化決策品質與嚴謹度。就像一場球賽,隨時根據變化、調整策略。

這樣的制度設計,就非常適合離岸風電這類規模大、跨區域、影響層面廣泛的能源政策評估,讓我們可以在政策推動初期就想到整個工程對環境、產業發展與社會的諸多影響,也為後續政策執行奠定更穩固的基礎。

政策環評並沒有否決權,而是重在整合各方意見、量化影響以及建立追蹤與修正機制,這樣的制度設計便適用於離岸風電等大型政策評估。圖/envato

離岸風電為何需要的是政策環評?

離岸風電是能源轉型的重要策略之一,但這不是只在某塊空地上架幾個風車,而是要在廣闊的大海中進行大規模建設,牽涉的不僅是發電,還涉及海洋保育、航空交通、水下文化資產等議題,更與當地漁民的權益息息相關。

這樣的大型離岸風電工程,因海洋環境的風險和不確定性極高,很容易讓人擔心生態影響。如何在海洋生態保護和綠能發展之間找到平衡點?這就需要政策環評的把關,從多方檢視這些複雜的挑戰,確保政策推行既能穩妥,又能達成發電目標。

-----廣告,請繼續往下閱讀-----

2016 年 3 月,經濟部自願提出「離岸風電區塊開發政策評估說明書」,是臺灣首次針對再生能源政策所進行的政策環評。根據這份評估說明書,政府將採分期公告、逐年檢討的方式,每三年開放 0.5~1 百萬瓩(GW)的電量額度鼓勵業者投入開發。當時環保署(現為環境部)歷經九個月召開 2 次意見徵詢會議,蒐集環評委員、專家學者、相關機關、民眾等意見,最終於同年 12 月的環評委員會作出徵詢意見。這些協商和檢討的過程,讓政策「名正言順」,得以充分顧及各方利益與生態平衡。

共通性環境議題與因應對策

在「離岸風電區塊開發政策評估說明書」中,環評會議盤點了開發過程中共通的環境議題。

首先,對於海洋生態保育的重點,特別是對中華白海豚的保護。環評會要求風機基座必須距離白海豚棲地1公里以上,以減少對其生態的干擾。實際上,這項規範在後續的實務執行中更為嚴格,例如,福海二期示範風場已退縮到 2.5 公里外,臺電二期風場甚至退到 4.2 公里外,顯示政策環評確實發揮了實質作用。此外,針對施工期間的聲音干擾,要求施工需有 30 分鐘以上的打樁緩啟動時間,並限制聲量不得超過 180 分貝等。

針對鳥類保育,政策環評也訂立了具體規範。其中,包括風機之間必須留設 500 公尺以上的鳥類穿行廊道,並在施工期間避開每年 11 月至隔年 3 月的候鳥過境期。同時,為確保這些措施確實生效,工程方也被要求設置「鳥類活動監測系統」,持續追蹤、評估風場對鳥類的影響。

-----廣告,請繼續往下閱讀-----

此外,環評會也確立了「先遠後近」的開發原則,要求優先開發較單純的航道外側區塊,待累積足夠經驗及相關資料後,再進行近岸區域的開發。這項原則考量了近海生態系的複雜性,也顧到養殖漁業的漁民權益,展現出政策環評在平衡發展需求與環境保護上的價值。

新一代的審查機制:達成能源轉型及環境保護雙贏

為提升環評效率並確保審查品質,環境部參考過去離岸風電審查經驗,制定「風力發電離岸系統開發行為環境影響評估初審作業要點」,建立了全新的二階段審查機制。

環境部推動二階段審查機制,提升離岸風電環評效率與審查品質。圖/envato

這套新機制分為兩個階段。第一階段,就像「初步檢查」,由環境部依照檢核表進行初審,並由環評審查委員會執行秘書邀集 2-5 位環評委員進行初審,通過第一階段初審之業者,可取得經濟部遴選資格,其初審結果有效期為兩年,必要時可申請展延一年。接著進入「第二階段」,開發單位檢附目的事業主管機關核配的容量證明文件等資料,提供更詳細的環境影響說明書以進行實質審查。

檢核表明確規範了 15 大項審查事項、112 項檢核項目,涵蓋開發案的全生命週期。

-----廣告,請繼續往下閱讀-----

工程面,包含風機及海上變電站基礎設置、海域電纜路線規劃、陸域設施工程等硬體設施的規範。其中,風機基礎設置必須避開海岸保護區、河口、潮間帶等環境敏感區域,且須進行地震危害度分析。海域電纜部分,除特殊情形外,埋設深度至少須達 1.5 公尺,且不得跨越中華電信海底電纜 1 公里的範圍。

環境保護上,檢核表則對施工噪音管制訂立了明確標準。舉例來說,打樁期間警戒區 750 公尺範圍內的水下噪音不得超過 160 分貝,且必須全程採用最佳噪音防制工法。同時,每個開發案或聯席審查的風場,同一時間內只能進行一支基樁施作,而日落前一小時到日出前也不得啟動新的打樁作業。

環境監測計畫更是檢核表中的重點,分為「施工前、施工期間、營運期間」三階段,每個階段都規定了詳細的監測要求(包括海域底質監測、水下噪音監測、鯨豚目視監測等)。以鯨豚監測為例,每年需執行20趟次,四季中每季至少執行 2 趟次。此外,所有監測數據都必須上傳至環境部「環保專案成果倉儲系統」(https://epaw.moenv.gov.tw/)供各界查閱。

這套標準化的審查機制不僅解決了「同一風場可能有多家廠商重複調查或審查」的資源浪費,也透過明確的檢核項目,讓開發單位在規劃階段就能掌握更具體的環境保護要求。不僅如此,該機制亦確保了環境保護標準前後一致,避免不同案件之間標準不一。

-----廣告,請繼續往下閱讀-----

結語

透過新的審查機制,環境部正積極推動再生能源開發案的環評審查作業,在提升行政效率之餘,也確保環境影響評估的品質,支持臺灣的離岸風電開發及國家能源轉型政策,也做好把關。藉由標準化檢核表和二階段審查制度,期待能在推動能源轉型的同時落實環境保護。

為確保制度能持續精進,環境部每半年至一年會進行制度檢討,並持續公開所有環評書件於「環評書件查詢系統」(https://eiadoc.moenv.gov.tw/eiaweb/)。此外,環評會議召開前一週,也必須在指定網站公布開會訊息,讓民眾能申請列席旁聽或發表意見。透明化措施一方面展現了政府推動永續發展的決心,另一方面也確保全民能共同參與監督離岸風電的發展過程。未來,這套制度將在各界的檢視與建議中持續完善,為臺灣的永續發展貢獻心力,發揮環評作業的最大效益。

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
222 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

5
0

文字

分享

0
5
0
來當一日語音設計師——如何設計好聽的合成語音?
雅文兒童聽語文教基金會_96
・2023/03/31 ・3727字 ・閱讀時間約 7 分鐘

-----廣告,請繼續往下閱讀-----

  • 文/邱彥哲|雅文基金會聽語科學研究中心 助理研究員

「Hey, Siri!」「OK, Google!」你曾經對手上的行動裝置說話嗎?你會要求他回答什麼呢?受限於目前的技術,你可能不會得到非常滿意的答案,但至少你會聽到一陣悅耳如同真人的語音吧!這項現今習以為常的技術,其實背後是由很多知識累積而成的。今天,讓我邀請你擔任一日「語音設計師」,從語音合成的技術開始,接著了解人類使用者的聽覺偏好,最後探索不同族群對聆聽合成語音的差異吧!

語音助理進駐現代人的日常生活。圖/freepik

語音合成(speech synthesis),是指以人工方式,製造出說話的聲音,可以理解為使機器裝置說出人話的技術。廣義來說,很多人也會把文字轉語音(Text to Speech,簡稱 TTS),含括在語音合成的範疇。

語音合成像樂高,但樂高有兩種

早在 1970 年代,人類就已經開始嘗試讓機器說話了。構思如何讓機器說話這件事,最直接的方式就是請真人錄一段聲音,然後在指定的時機播放。不過,面對複雜的語言情境,我們不可能錄下所有可能的回應 ; 而且若要這樣做,也實在太沒效率。幸好,借助電腦運算技術,可以讓人類向自動生成語音邁進一大步。合成的方法可以分成兩大類,分別是單元選取合成(Unit Selection Synthesis)及參數合成(Parametric Synthesis)[1]

單元選取合成這種方法,是將某個語言的語音成分分別以人聲錄製起來,再根據需要的目標語音進行組合。簡單來說,如果需要機器說發出「八」的語音,就必須單獨錄製「ㄅ」跟「ㄚ」。這個技術聽起來直觀方便,但也有缺點。就是事先必須建立一個龐大的語音資料庫,這個資料庫必須包含一個語言所有語音成分,此外,還必須錄下這些語音成分在所有情境下的變化,光想起來就令人有點頭痛。

-----廣告,請繼續往下閱讀-----

所以後者,參數合成,就顯得方便許多。這種方法,是直接將語音參數輸入電腦,讓電腦直接根據參數發出聲音,再組成語音。使用參數合成,就可以免去請人錄音的步驟,但直接使用電腦生成的語音,聽起來也會相對不自然。我們可以把這兩類方法想像成是在組合樂高,都是將語音成分一塊一塊組合起來,只是前者的樂高是自然材質(比如說木頭製),後者是人造材質(比如說塑膠)。

借助深度學習,電腦說話很自動

不過,無論是上述哪種方法,都還是需要不少的人工調校,才能使聲音逐步接近人類的語音。但還好,隨著電腦演算的進步,將深度學習(deep learning)運用在語音合成的領域,不但減少了人工成本,也大大提升的語音的擬人性。所謂深度學習,簡單來說就是一套模擬人類神經網絡的演算法。

使用這樣的演算法,設計者只需蒐集大量的語音資料,將資料「餵」給電腦,無須事先切分或分析,電腦便會自動學習其中的規律。如此一來,只要資料數量足夠龐大,電腦就可以自動產生符合自然規律且真實的語音。

但是,身為一位語音設計師,要進一步思考的是:「究竟要餵給電腦什麼呢?」這個問題又必須從使用者的角度來思考:「人類會偏好聆聽什麼樣的語音?」就像生產商品一樣,語音百百款,要能投其所好,才能讓使用者日日寸步不離,對吧!

-----廣告,請繼續往下閱讀-----

聆聽也要投其所好,性別頻率最重要

人類對不同性別及頻率有特殊的聆聽偏好。圖/freepik

關於合成語音的聆聽偏好,最先被討論的,是性別。雖然我們都知道機器沒有性別,但若希望他和人一樣跟你互動,投射性別是很自然的。不過有人就提出質疑:「為什麼我們的語音助理,都是女性的聲音呢?」美國西北大學梅迪爾傳播新聞整合行銷學院教授 Candy Lee 進行一項調查,測試了 8 種族裔的使用者,結果發現 64% 的人只偏好女性的聲音[2]

這樣看起來,預設為女性的聲音應該是沒問題的吧?不過,有人認為這是社會對「助理」的性別刻板印象所致;因為社會習慣女性作為「服務者」,所以在設計語音時,直覺地就挑選了女性聲音。雖然單就頻率方面,的確有研究指出,使用者確實是偏好頻率較高的合成語音[3],但若是一昧如此,也極有可能不斷複製性別偏見的印象[4]

有鑒於此,越來越多系統開始提供男性語音的選項。更甚者,哥本哈根研究團隊突發奇想,不以性別為選項,而是改以頻率作為調查標準。分析之後,他們得到一個最佳的頻率值──185 赫茲,設計出史上第一個無性別語音助理「Q」[5]。如此一來,青菜蘿蔔各有所好,聆聽的偏好也朝著多元共好的目標邁進!

聽得舒服,語速考量不能少

解決的性別與頻率的問題,還得注意甚麼呢?專門研究輔助溝通系統(Augmentative and Alternative Communication,簡稱 AAC)的專家想到了語速的問題。輔助溝通系統可以簡單理解成「溝通輔具」,是用以輔助溝通障礙者溝通的工具; 簡單如圖卡,複雜如電子溝通板,都算是其中一員。而像是電子溝通板這類,以螢幕顯示圖片,點擊後可以播放語音的輔具來說,合成語音是很關鍵的技術。

-----廣告,請繼續往下閱讀-----

這些溝通障礙專家想知道:「究竟什麼樣的語音速度,是最舒服的呢?」。

Sutton 與其研究團隊招募了 21 至 28 歲的年輕人與 61 至 79 歲的年長者,對合成語音進行語速評分[6]。語速的計算方式,採用每分鐘幾個字(Words per minute,簡稱 WPM)計算。他們將合成語音調整成不同的語速,範圍介於 120 到 250WPM 之間。結果發現,無論年輕人或年長者,偏好的語速都落在 150 到 200WPM 之間 ; 而年長者則是相對年輕人偏好較慢的語速。這樣的範圍,其實與過去研究提出的人類平均語速,相去不遠[7]

如果想知道不同語速聽起來感受如何,可以到合成語音軟體 Speechify[8]的網站試用,自行調整語速(以 WPM 計算),細細品味其中差異。或者,讓我為你朗讀,請聽示範(語速約 180WPM,內容為「我是彥哲,我是普通人。」)! 

可見,語音合成的技術雖是極為理性的領域,但若要設計出美妙的語音,對人類感性的理解,也絕對不能偏廢。

-----廣告,請繼續往下閱讀-----
圖/Pixabay

合成語音聆聽不易,考量族群差異最貼心

「所以,我只要想辦法把語音設計得很像人類就可以了吧?」你可能會這樣想,不過這裡頭還少了一個部分。現代社會提倡多元,客製化當道,每個人使用同個產品的狀況必然會有差異。

其實,即使是一般人,聆聽並理解合成語音是比自然語音更加困難的。Winters 及 Pisoni 發表的回顧研究指出:由於合成語音的清晰度普遍較差,因此聆聽者通常需要動用更多的認知資源(像是電腦需要動用較多記憶體),以及更多高層次的語言知識來彌補語音訊息的不完整[9]。如果對普通人來說是如此,對於某些特殊族群來說,想必有更加需要注意的地方。

比如說兒童。Mirenda 及 Beukelman 招募了成年人、10 至 12 歲以及 6 至 8 歲的兒童進行研究[10]。參與者的任務,是要在聽完自然語音及合成語音播放的八個詞彙之後,再將這八個詞彙回憶並說出來,回答無須按照順序。結果研究者發現,兩組兒童無論聆聽自然或合成語音,回憶詞彙的表現都比成人還差 ; 對於兩組兒童而言,記憶合成語音的表現又更不理想。

由此可知,兒童本身的記憶能力就較成年人弱,在聆聽合成語音時,可以說是是難上加難。

-----廣告,請繼續往下閱讀-----

另一個被探討的,是聽障族群。聽障族群最主要的困難,就在於聆聽。聆聽合成語音如果對聽常族群來說本來就比較困難,那對聽障族群應該是更加艱困的挑戰吧!Kangas 和 Allen 的研究[11]回答了這個問題。研究者請年長聽障者聆聽自然語音與合成語音,並請他們在聆聽後寫出聽到的單字。結果可想而知,聽障者確實在聆聽合成語音的部分表現得比較差。

看完上面的狀況,身為語音設計師的你,在設計語音的時候,是不是也應該從使用者的背景差異去調整你的語音呢?也許是調整語音的頻率,也許是調整語速,也可能,也可能有更多領域需要探索。唯有這樣,才能朝充滿人性又個人化的智慧語音邁進。

怎麼樣?沒想到要設計語音,希望機器說出一句話,背後涉及理性的技術與感性的考量,非常不容易吧!看完之後,你還是可以輕鬆地要求你的行動裝置說個笑話,唱首歌給你聽,自娛娛人;但也千萬別忘記,多留點心思,給這人類文明的結晶致上敬意。一日語音設計師,功成身退!

參考資料

  1. 詹姆士・弗拉霍斯。(2019)。從說話機器人到聊天機器人。聲控未來:引爆購物、搜尋、導航、語音助理的下一波兆元商機(孔令新譯,頁104-137)。商周出版。
  2. Marc Jacob.(2022/3/30). Medill Study Finds Preference for Female Voices and Local Accents. Northwestern Medill Local News Initiative.
  3. 顏宏旭,楊麗平,宋慧宏。(2020)。聽眾對語音合成導覽裝置聲音偏好之探討。戶外遊憩研究。33(4),83-107。
  4. West, M., Rebecca K., & Chew H.E. (2019). I’d Blush if I Could: Closing Gender Divides in Digital Skills Through Education.UNESCO & EQUALS Skills Coalition.
  5. GenderLess Voice. (2023/3/3) Meet Q [Web message].
  6. Sutton, B., King, J., Hux, K., & Beukelman, D. (1995). Younger and older adults’ rate performance when listening to synthetic speech. Augmentative and Alternative Communication, 11(3), 147-153.
  7. Walker, V. G. (1988). Durational Characteristics of Young Adults during Speaking and Reading Tasks. Folia Phoniatrica et Logopaedica, 40(1), 12–20.
  8. Speechify. (2023/3/3) Speechify.
  9. Winters, S. J., & Pisoni, D. B. (2004). Perception and comprehension of synthetic speech. Research on spoken language processing report, 26, 95-138.
  10. Mirenda, P. & Beukelman, D.R. (1987). A comparison of speech synthesis intelligibility with listeners from three age groups. Augmentative and Alternative Communication, 3, 120-128.
  11. Kangas, K.A. & Allen, G.D. (1990). Intelligibility of synthetic speech for normal-hearing and hearing impaired listeners. Journal of Speech and Hearing Disorders, 55, 751-755.
-----廣告,請繼續往下閱讀-----
雅文兒童聽語文教基金會_96
59 篇文章 ・ 222 位粉絲
雅文基金會提供聽損兒早期療育服務,近年來更致力分享親子教養資訊、推動聽損兒童融合教育,並普及聽力保健知識,期盼在家庭、學校和社會埋下良善的種子,替聽損者營造更加友善的環境。