0

1
0

文字

分享

0
1
0

講話太難語音助理聽不懂?利用互動設計讓人講「機器話」

人機共生你我它_96
・2020/07/27 ・2309字 ・閱讀時間約 4 分鐘 ・SR值 536 ・七年級

-----廣告,請繼續往下閱讀-----

「這段時間,我們一直納悶控制的方法在哪裡……」
「沒想到就是我們自己。」

——《人生複本》 Blake Crouch

有沒有注意自己的日常用語會跟自己經常接觸的朋友們越趨接近?像是辦公室有人開始講:「是在哈囉?」身旁會也越來越多人在不經意間說出:「是在哈囉?」我們跟某個朋友聊天時,如果對方原本都沒有在用貼圖,但是突然有一天他/她開始用了貼圖,我們也開始跟著用貼圖來回應對方。

用語上的一致性 (lexical alignment / lexical entrainment)能夠讓人跟人之間距離更靠近,增加彼此的信任感。不僅在語言上,行為上一致性(姿勢、動作等)也能在兩個溝通越來越順暢的人們身上觀察到,而且人們在沒有察覺的情況下,對於那些語言與行為跟自己一致的人也展現較多好感。

大家下次在外面吃飯時,不妨觀察隔壁桌的兩人是否會輪流用手托腮。圖/Unsplash

語言一致性的涵蓋範圍廣泛,包含用詞選擇、腔調、語速,甚至是修辭結構。

舉例來說,當我們在跟朋友描述自己所在的位置時:「我在地下室一樓」此時,對方比較有可能回應「我在地下室二樓」,而不是「我在 B2」。

-----廣告,請繼續往下閱讀-----

但人與人之間對話時的用語一致性跟語音助理設計有什麼關係呢?

無論與人或電腦對話,我們都會配合對方的用語

我們可以透過瞭解人跟電腦對話的時候,是否也會出現這樣的用語一致性。在這個實驗當中,研究者們會讓使用者分別跟三個不同的角色語音對話對話,分別是:

  • 真人
  • 較舊版本的電腦
  • 較新版本的電腦

而且使用者們會明確地被告知即將對話者的身分。如果是舊版電腦,就會看到一個螢幕開機畫面上寫著是 1987 年的作業系統版本;如果對話的是新版電腦,就會在螢幕上看到 2003 年的作業系統版本。

圖/pickpik

接著,請使用者在實驗過程中分別跟三個不同的角色互相看著圖片描述一個物品,例如:看一張電燈的圖片。不過「電燈」的另一個稱呼也可以是「檯燈」,這時候研究者就讓他們輪流向對方說出照片裡的物品,進而讓研究者們分析使用者會不會因為對方用了某個詞彙,後續再看到同樣的圖片時也用同樣的詞彙。

-----廣告,請繼續往下閱讀-----

結果發現,是的!使用者不但會配合另一個人的用詞方式,也會配合電腦的用詞。

即便使用者知道自己在跟電腦對話,當電腦一直用固定的詞彙描述圖中物品時,使用者的描述用詞也會配合電腦,就如同配合人一樣,用同樣的詞彙來描述物品。

但是這種用同樣詞彙的配合程度不同,當使用者知道自己在跟一個舊版本的電腦對話時,配合的程度就高於最新版本的電腦或是人類。也就是說,當我們知道電腦可能「比較笨」的時候,我們就更容易去配合它的用語。而這個效果透過很表面的知覺操弄就可以做到,就像實驗中讓使用者看到不同版本作業系統就會達到配合程度不同的效果。

不只用詞,在句子結構上也會配合語音助理

除了看字彙選擇是不是會有一致性,研究者們也發現當請使用者分別跟另一個真人、另一個發出機器音的語音助理、另一個擬人聲的語音助理對話,無論和誰對話,使用者自己的句子結構都會有配合對方的傾向。

圖/Unsplash

研究者們邀請使用者向三個不同的角色互相描述圖片中的畫面,從中我們可以發現兩個不同的描述方式:

-----廣告,請繼續往下閱讀-----
  • 左圖:「大明給小王一張卡片」=「大明把卡片給小王」;
  • 右圖:「一個藍色的圓圈」=「一個圓圈是藍色的」。

接著讓使用者分別跟三個角色輪流描述多長不同的圖片給對方聽。結果發現,如果對方一直用「A 把(物品)給 B」或是「形容詞 + 名詞」這種結構來描述圖片的話,自己後續描述圖片的方式也會趨向這個方式。

所以,無論跟自己對話的是人,或是機器音的語音助理,還是擬人聲的語音助理都有同樣的效果。

利用人們「一致性」本能,互動設計讓語音助理更好用

從我們與語音助理的互動經驗中可以發現,只要語音助理無法辨識我們說出來的內容,就無法給出符合期待的回應,所以自然語言處理(Natural language processing, NLP)的專家們持續發展語音辨識的技術。然而在新技術尚未推出之前,我們其實可以從人機互動的角度來修正語音助理的設計。

以本次回顧的系列研究的結論來說,人會隨著溝通對象而改變語言使用習慣,包含用語、句構。尤其當人認為電腦越不聰明時,配合程度越強。因此,設計師們不妨根據現有技術,先讓語音助理講出一些簡單的句子結構來開啟對話,再引導使用者也使用相似的簡單結構來回覆,而不是一定要專注在設計出能夠進行複雜對話的語音助理。

-----廣告,請繼續往下閱讀-----

例如:當我們透過 Hey, bot 喚醒語音助理後,先讓語音助理說出:「嗨,下指令」這個簡單的句子結構,進而引導使用者說出:「好,播音樂」。

從系統設計角度來看,這麼做能在一開始就讓使用者在不知不覺中說出系統比較容易辨識的指令。就像我們在跟小小孩對話的時候,當他對我們說:「我要車車~」的時候,自己也會很自然的回應:「車車給你~」。

如此一來,使用者就不會因語音助理辨識錯誤而太失望了,不是嗎?

圖/unsplash

延伸閱讀

感謝沈奕超、張元嘉提供編輯建議

參考資料

  1. Cowan, B. R., Branigan, H. P., Obregón, M., Bugis, E., & Beale, R. (2015). Voice anthropomorphism, interlocutor modeling and alignment effects on syntactic choices in human-computer dialogue. International Journal of Human-Computer Studies, 83, 27-42.
  2. Branigan, H. P., Pickering, M. J., Pearson, J., McLean, J. F., & Brown, A. (2011). The role of beliefs in lexical alignment: Evidence from dialogs with humans and computers. Cognition, 121(1), 41-57.
文章難易度
人機共生你我它_96
12 篇文章 ・ 3 位粉絲
由致力於人機互動研究(HCI, Human-Computer Interaction)的研究者與實務工作者所創立,我們定期發表人機互動相關文章,與讀者一起思考科技對社會生活帶來的好處與限制。

0

8
2

文字

分享

0
8
2
快!還要更快!讓國家級地震警報更好用的「都會區強震預警精進計畫」
鳥苷三磷酸 (PanSci Promo)_96
・2024/01/21 ・2584字 ・閱讀時間約 5 分鐘

本文由 交通部中央氣象署 委託,泛科學企劃執行。

  • 文/陳儀珈

從地震儀感應到地震的震動,到我們的手機響起國家級警報,大約需要多少時間?

臺灣從 1991 年開始大量增建地震測站;1999 年臺灣爆發了 921 大地震,當時的地震速報系統約在震後 102 秒完成地震定位;2014 年正式對公眾推播強震即時警報;到了 2020 年 4 月,隨著技術不斷革新,當時交通部中央氣象局地震測報中心(以下簡稱為地震中心)僅需 10 秒,就可以發出地震預警訊息!

然而,地震中心並未因此而自滿,而是持續擴建地震觀測網,開發新技術。近年來,地震中心執行前瞻基礎建設 2.0「都會區強震預警精進計畫」,預計讓臺灣的地震預警系統邁入下一個新紀元!

-----廣告,請繼續往下閱讀-----

連上網路吧!用建設與技術,換取獲得地震資料的時間

「都會區強震預警精進計畫」起源於「民生公共物聯網數據應用及產業開展計畫」,該計畫致力於跨部會、跨單位合作,由 11 個執行單位共同策畫,致力於優化我國環境與防災治理,並建置資料開放平台。

看到這裡,或許你還沒反應過來地震預警系統跟物聯網(Internet of Things,IoT)有什麼關係,嘿嘿,那可大有關係啦!

當我們將各種實體物品透過網路連結起來,建立彼此與裝置的通訊後,成為了所謂的物聯網。在我國的地震預警系統中,即是透過將地震儀的資料即時傳輸到聯網系統,並進行運算,實現了對地震活動的即時監測和預警。

地震中心在臺灣架設了 700 多個強震監測站,但能夠和地震中心即時連線的,只有其中 500 個,藉由這項計畫,地震中心將致力增加可連線的強震監測站數量,並優化原有強震監測站的聯網品質。

-----廣告,請繼續往下閱讀-----

在地震中心的評估中,可以連線的強震監測站大約可在 113 年時,從原有的 500 個增加至 600 個,並且更新現有監測站的軟體與硬體設備,藉此提升地震預警系統的效能。

由此可知,倘若地震儀沒有了聯網的功能,我們也形同完全失去了地震預警系統的一切。

把地震儀放到井下後,有什麼好處?

除了加強地震儀的聯網功能外,把地震儀「放到地下」,也是提升地震預警系統效能的關鍵做法。

為什麼要把地震儀放到地底下?用日常生活來比喻的話,就像是買屋子時,要選擇鬧中取靜的社區,才不會讓吵雜的環境影響自己在房間聆聽優美的音樂;看星星時,要選擇光害比較不嚴重的山區,才能看清楚一閃又一閃的美麗星空。

-----廣告,請繼續往下閱讀-----

地表有太多、太多的環境雜訊了,因此當地震儀被安裝在地表時,想要從混亂的「噪音」之中找出關鍵的地震波,就像是在搖滾演唱會裡聽電話一樣困難,無論是電腦或研究人員,都需要花費比較多的時間,才能判讀來自地震的波形。

這些環境雜訊都是從哪裡來的?基本上,只要是你想得到的人為震動,對地震儀來說,都有可能是「噪音」!

當地震儀靠近工地或馬路時,一輛輛大卡車框啷、框啷地經過測站,是噪音;大稻埕夏日節放起絢麗的煙火,隨著煙花在天空上一個一個的炸開,也是噪音;台北捷運行經軌道的摩擦與震動,那也是噪音;有好奇的路人經過測站,推了推踢了下測站時,那也是不可忽視的噪音。

因此,井下地震儀(Borehole seismometer)的主要目的,就是盡量讓地震儀「遠離塵囂」,記錄到更清楚、雜訊更少的地震波!​無論是微震、強震,還是來自遠方的地震,井下地震儀都能提供遠比地表地震儀更高品質的訊號。

-----廣告,請繼續往下閱讀-----

地震中心於 2008 年展開建置井下地震儀觀測站的行動,根據不同測站底下的地質條件,​將井下地震儀放置在深達 30~500 公尺的乾井深處。​除了地震儀外,站房內也會備有資料收錄器、網路傳輸設備、不斷電設備與電池,讓測站可以儲存、傳送資料。

既然井下地震儀這麼強大,為什麼無法大規模建造測站呢?簡單來說,這一切可以歸咎於技術和成本問題。

安裝井下地震儀需要鑽井,然而鑽井的深度、難度均會提高時間、技術與金錢成本,因此,即使井下地震儀的訊號再好,若非有國家建設計畫的支援,也難以大量建置。

人口聚集,震災好嚴重?建立「客製化」的地震預警系統!

臺灣人口主要聚集於西半部,然而此區的震源深度較淺,再加上密集的人口與建築,容易造成相當重大的災害。

-----廣告,請繼續往下閱讀-----

許多都會區的建築老舊且密集,當屋齡超過 50 歲時,它很有可能是在沒有耐震規範的背景下建造而成的的,若是超過 25 年左右的房屋,也有可能不符合最新的耐震規範,並未具備現今標準下足夠的耐震能力。 

延伸閱讀:

在地震界有句名言「地震不會殺人,但建築物會」,因此,若建築物的結構不符合地震規範,地震發生時,在同一面積下越密集的老屋,有可能造成越多的傷亡。

因此,對於發生在都會區的直下型地震,預警時間的要求更高,需求也更迫切。

-----廣告,請繼續往下閱讀-----

地震中心著手於人口密集之都會區開發「客製化」的強震預警系統,目標針對都會區直下型淺層地震,可以在「震後 7 秒內」發布地震警報,將地震預警盲區縮小為 25 公里。

111 年起,地震中心已先後完成大臺北地區、桃園市客製化作業模組,並開始上線測試,當前正致力於臺南市的模組,未來的目標為高雄市與臺中市。

永不停歇的防災宣導行動、地震預警技術研發

地震預警系統僅能在地震來臨時警示民眾避難,無法主動保護民眾的生命安全,若人民沒有搭配正確的防震防災觀念,即使地震警報再快,也無法達到有效的防災效果。

因此除了不斷革新地震預警系統的技術,地震中心也積極投入於地震的宣導活動和教育管道,經營 Facebook 粉絲專頁「報地震 – 中央氣象署」、跨部會舉辦《地震島大冒險》特展、《震守家園 — 民生公共物聯網主題展》,讓民眾了解正確的避難行為與應變作為,充分發揮地震警報的效果。

-----廣告,請繼續往下閱讀-----

此外,雖然地震中心預計於 114 年將都會區的預警費時縮減為 7 秒,研發新技術的腳步不會停止;未來,他們將應用 AI 技術,持續強化地震預警系統的效能,降低地震對臺灣人民的威脅程度,保障你我生命財產安全。

文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
196 篇文章 ・ 300 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

5
1

文字

分享

0
5
1
觀察俄烏戰爭,學習心理急救
胡中行_96
・2023/02/09 ・3800字 ・閱讀時間約 7 分鐘

前言:泛科學臉書粉專推廣〈在臺海危機下,淺談戰地醫療〉時,讀者們熱情分享檢傷分類經驗,與急救課程資訊。事後更有國軍弟兄私訊筆者,表示對相關中文資料的迫切需求。有別於先前介紹戰時的醫療制度與創傷急救,本文摘譯知名期刊《The Lancet》(中譯「刺胳針」或「柳葉刀」)的附屬刊物,概述俄烏戰爭中,烏克蘭承受的公衛挑戰;並分享俄裔美國心理學家 Elena Cherepanov 對當地心理健康應變的觀察。同時,再次歡迎大家提供更多專業資訊,討論臺灣應該如何備戰,謝謝。

烏克蘭總統Volodymyr Zelenskyy視察被俄軍屠殺的地區。圖/President Of Ukraine on Flickr(Public Domain)

公衛挑戰

疾病給烏克蘭帶來的負擔,在承平時期並沒有特別沉重。然而,俄烏戰爭不僅重擊當地醫療體系;難民的文化差異和語言隔閡,以及物資與藥品不足等,也造成周邊國家的壓力。戰爭期間,聯合國(UN)、世界衛生組織(WHO)、紅十字會(Red Cross)、明愛(Caritas)等單位,紛紛在當地和鄰國展開救援。學者訪談烏克蘭等多個歐洲國家的政府部門與民間組織,統整出一張俄烏戰爭的公衛挑戰清單:[1]

  • 產科照顧:對孕婦產前、生產和產後,以及新生兒的照顧,都被戰火打斷。[1]
  • 婦幼營養:食物、營養品,還有金錢的流通受阻,以致婦女與孩童營養不良。[1]
  • 長期處方:心血管疾病、糖尿病等慢性病,以及肺結核和愛滋病等既有的感染,不見得能夠獲得穩定的藥物供給,與即時的專業協助。[1]
  • 冷冽天候和長途跋涉:在嚴寒中逃難,容易造成肺炎、凍瘡、失溫,以及上呼吸道感染。需要庇護所、衣物和毛毯。[1]
  • 身體創傷急救:欠缺醫療器材和物資補給。人力方面,則得訓練社區志工,進行檢傷分類和急救。[1]
  • 精神創傷急救:除了土生土長的當地人,有些敘利亞、伊拉克和阿富汗難民,於俄烏戰爭中受到二次精神傷害。跨文化的精神健康服務,變得格外重要。[1]
  • 疫苗普及:當地COVID-19疫苗與兒童常規疫苗接種率偏低,而逃難的人口中,九成是婦女和兒童。[1]
  • 潔淨水源:缺乏安全的用水,難以防範傳染病的爆發。[1]
  • 性暴力與性販賣:須要保護機制、心理社會支持與女性衛生用品包(dignity kits);以及生殖健康、安全墮胎和家暴處理等服務。[1]
烏克蘭總統Volodymyr Zelenskyy探訪傷兵。圖/President Of Ukraine on Flickr(Public Domain)

心理創傷

戰爭會帶來長期,甚至跨世代的心理傷害。[2]出生於俄羅斯的心理學家 Elena Cherepanov,長年任教於美國,專攻心理創傷。曾於 2014 年烏克蘭東部戰亂時,透過 Skype 指導 170 名基輔與烏東的心理學家、心理健康工作者、社工人員與心理系學生。[3]2022 年 2 月 23 日晚間,俄軍入侵烏克蘭。[4]Cherepanov 博士在 11 月的《公衛前沿》(Frontiers in Public Health)期刊上,分享自己對戰爭的觀察。她將烏克蘭民眾在身心反應上的轉變,分為下列幾個時期:[2]

  1. 戰爭初期:基於歷史、文化、宗教和血脈的淵源,烏克蘭民眾難以接受鄰國入侵的事實,覺得慘遭背叛[2]性侵女性、綁架兒童,以及系統性安全檢查,蒐集個資,再強迫難民遷徙的過濾營(filtration camps)等,種族滅絕的事件頻傳。經由媒體報導,引來國際的同情與支持。[2, 5]同時,手機和社群媒體即時分享的功能,雖能維繫人與人的連結,卻也帶來資訊真偽難辨的混亂。網路論壇中,起先充斥驚愕顫抖無法置信之類的留言。接著,當難民逐漸抵達鄰近友邦,依然持續哭泣失眠做惡夢。在高度警戒的狀態下,有些人拒絕使用安眠藥。心理衝擊也可能以生理形式呈現,例如:噁心想吐,多半起因於戰時的緊張情緒,而非食物中毒。[2]
  2. 戰爭滿月:到了 3 月底,烏克蘭民眾開始產生對未來的憂慮。失去親人、家園和戰前的生活,精神與情緒疲乏麻木,有些便拒絕前往庇護所。一邊是無法控制的憤怒躁動,增加家庭衝突;另一邊,又因為不得不拋下被徵召或羸弱的至親,而遺留心靈創傷。目擊殺掠、性侵和虐待,或是與父母分離的兒童,出現依戀問題行為退化,表現得比真實年齡還幼小。原本乖巧的孩子,也可能變得黏人冷漠挑釁有攻擊性[2]
  3. 戰爭近期:烏克蘭群眾開始習慣戰爭的狀態,一些長期或原有的問題,例如:酗酒或家庭失和等,又再度浮現。[2]

在人道危機中,老年人身心障礙者等族群,面臨減少的援助與增加的阻礙,更是顯得脆弱。一方面害怕離開熟悉的環境,另方面是為了避免成為家人的負擔,他們有些選擇留下來,因而容易喪命於原本能預防的傷害。[2]

心理健康資源

烏克蘭的心理健康體系,在開戰初期,被突如其來的龐大需求,搞得措手不及。所幸專業人員兩個月內便上了軌道。除了一般面對面的服務,Cherepanov 博士表示,當地還有下列選擇:[2]

-----廣告,請繼續往下閱讀-----
  1. 遠距醫療:COVID-19 疫情期間變得普及的遠距科技,正好於戰時派上用場,提供危險地區心理諮詢。[2]
  2. 網路社群:通訊軟體 Telegram 和社交平臺 Facebook上,支持性團體林立。在俄烏戰爭期間,成為烏克蘭人媒合供需,互通有無的重要管道。緊急心理問題的求助貼文,也會引來早就離鄉背井的相關從業人員,即時回覆。有些團體從世界各地,聘僱幾百名通俄語和烏克蘭語的心理工作者,每天答覆 200 至 300 則訊息。也有在 2020 年白羅斯(Belarus;舊譯「白俄羅斯」)政治危機時,成立的臉書社團,用既有的經驗,協助烏克蘭人度過難關。[2]
  3. 聊天機器人:操烏克蘭語、俄語和白羅斯語的聊天機器人 Faino 和 GotoHelp,效益如何還有待評估。[2]
烏克蘭總統 Volodymyr Zelenskyy 探訪傷患。圖/President Of Ukraine on Flickr(Public Domain)

心理急救

心理急救(Psychological First Aid)是一套用來給予身陷危機者心理支持,加強其調適能力,並滿足基本需求的對策。有別於精神科的臨床技巧,無論是專業醫療人員或一般民眾,都可以學習並執行。[6]世界衛生組織的心理急救指南,建議大眾注意重大危機事件發生的時間、地點和受難的對象,以及哪些單位參與救援。[7]在擁有這些認知的前提下,進行下列心理急救的步驟:

  1. 觀察(look):在行動前先確認安全,以免自己陷入危險環境。接著,觀察受害者身心的基本需求,然後思考有哪些可運用的相關資源或服務。每個人對危機的反應不同,有些呈現在情緒上,例如:易怒或沮喪;有些則沉默或出現頭疼、疲憊等症狀。兒童、青少年、孕婦、老人、身心障礙者和被歧視的族群,特別需要關照。[7]
  2. 傾聽(listen):簡單地報上自己的名字,以及所屬的組織。情勢允許的話,將人帶到安全且寧靜的地方。用溫和的語氣,鼓勵他專注於緩慢的呼吸。給予陪伴,別讓情緒低落者獨處。以尊重的態度,全神貫注地聆聽對方的憂慮,試圖釐清需求的優先順序。務必維護對方隱私,不要任意轉述。[7]
  3. 連結(link):協助受害者獲得水、食物、住所和醫療等資源,並提供局勢與計劃的最新動態。動盪時期的資訊混亂,必要盡可能地查證並隨時更新。切勿為了安撫人心,就擅自捏造。針對特定文化背景及宗教信仰,可轉介給相關社群;或是透過社福單位,協尋親屬,兩者皆能帶來心靈慰藉。[7]

在結束心理急救的階段性任務後,如果就這麼離開,或許會太突然。要讓受助者理解,接手的專業人士會負責以後的事務。然後選擇適當的時機,與他們道別,並奉上誠摯的祝福。[7]

美國國家心理創傷中心(National PTSD Center)版本的心理急救指南,從07:56開始。影/鄭若瑟Joseph Cheng on YouTube

烏克蘭經驗

Cherepanov 博士指出,在沒有中央統籌的狀況下,烏克蘭等地的心理健康從業人員,冒著生命危險,自發性地付出,並組織社會資源。他們讓世人看到,唯有喚起大眾對心理創傷的重視,才能強化社會韌性,以及減少對求助的汙名化。必要訓練專業人員、醫療工作者、教師和志工,心理急救的能力;並建立社區型的支援體系,共同分擔責任。[2]

  

-----廣告,請繼續往下閱讀-----

延伸閱讀

  1. 高振傑、蘇逸人(2021)《心理急救手冊》中華民國紅十字會。
  2. UCLA早期心理急救模式」(2010)災難與創傷心理資訊網。
  3. 紅十字會與紅新月會社會心理急救資源冊》(2018)香港紅十字會與紅新月會。

參考資料

  1. Kumar BN, James R, Hargreaves S, et al. (2022) ‘Meeting the health needs of displaced people fleeing Ukraine: Drawing on existing technical guidance and evidence’. The Lancet Regional Health – Europe.
  2. Cherepanov E. (2022) ‘Mental health providers in Ukraine need support but they are not helpless: Professional self-organization and innovative practices’. Frontiers in Public Health, 10:1009431.
  3. Smith, K. (2015) ‘Trauma in Ukraine’. Monitor on Psychology, 46(4).
  4. United Nations. (17 JAN 2023) ‘The UN and the war in Ukraine: key information’. Regional Information Center for Western Europe.
  5. Ochab EU. (30 OCT 2022) ‘What Are Putin’s ‘Filtration Camps’ And Why Are They Concerning?’. Forbes.
  6. Schafer A, Snider L, Sammour R. (2016) ‘A reflective learning report about the implementation and impacts of Psychological First Aid (PFA) in Gaza’. Disaster Health, 3(1): 1-10.
  7. Snider L, van Ommeren M, Schafer A. (02 OCT 2011) ‘Psychological first aid: Guide for field workers’. World Health Organization.
胡中行_96
169 篇文章 ・ 65 位粉絲
曾任澳洲臨床試驗研究護理師,以及臺、澳劇場工作者。 西澳大學護理碩士、國立台北藝術大學戲劇學士(主修編劇)。邀稿請洽臉書「荒誕遊牧」,謝謝。

1

133
5

文字

分享

1
133
5
AI 是理科「主場」? AI 也可以成為文科人的助力!
研之有物│中央研究院_96
・2022/08/13 ・5646字 ・閱讀時間約 11 分鐘

-----廣告,請繼續往下閱讀-----

本文轉載自中央研究院研之有物,泛科學為宣傳推廣執行單位。

  • 採訪撰文/田偲妤
  • 美術設計/蔡宛潔

AI 的誕生,文理缺一不可

人工智慧(Artificial Intelligence,簡稱 AI)在 21 世紀的今日已大量運用在生活當中,近期掀起熱議的聊天機器人 LaMDA、特斯拉自駕系統、AI 算圖生成藝術品等,都是 AI 技術的應用。多數 AI 的研發秉持改善人類生活的人文思維,除了仰賴工程師的先進技術,更需要人文社會領域人才的加入。

中央研究院「研之有物」專訪院內人文社會科學研究中心蔡宗翰研究員,帶大家釐清什麼是 AI?文科人與工程師合作時,需具備什麼基本 AI 知識?AI 如何應用在人文社會領域的工作當中?

中央研究院人文社會科學研究中心蔡宗翰研究員。圖/研之有物

詩詞大對決:人與 AI 誰獲勝?

一場緊張刺激的詩詞對決在線上展開!人類代表是有「AI 界李白」稱號的蔡宗翰研究員,AI 代表則是能秒速成詩的北京清華九歌寫詩機器人,兩位以「人工智慧」、「類神經」為命題創作七言絕句,猜猜看以下兩首詩各是誰的創作?你比較喜歡哪一首詩呢?

-----廣告,請繼續往下閱讀-----
猜猜哪首詩是 AI 做的?哪首詩是人類做的?圖/研之有物

答案揭曉!A 詩是蔡宗翰研究員的創作,B 詩是寫詩機器人的創作。細細賞讀可發覺,A 詩的內容充滿巧思,為了符合格律,將「類神經」改成「類審經」;詩中的「福落天赦」是「天赦福落」的倒裝,多念幾次會發現,原來是 Google 開發的機器學習開源軟體庫「Tensor Flow」的音譯;而「拍拓曲」則是 Facebook 開發的機器學習庫「Pytorch」的音譯,整首詩創意十足,充滿令人會心一笑的魅力!

相較之下,B 詩雖然有將「人工」兩字穿插引用在詩中,但整體內容並沒有呼應命題,只是在詩的既有框架內排列字句。這場人機詩詞對決明顯由人類獲勝!

由此可見,當前的 AI 缺乏創作所需的感受力與想像力,無法做出超越預先設定的創意行為。然而,在不久的將來,AI 是否會逐漸產生情感,演變成電影《A.I. 人工智慧》中渴望人類關愛的機器人?

AI 其實沒有想像中聰明?

近期有一則新聞「AI 有情感像 8 歲孩童?Google 工程師爆驚人對話遭停職」,讓 AI 是否已發展出「自我意識」再度成為眾人議論的焦點。蔡宗翰研究員表示:「當前的 AI 還是要看過資料、或是看過怎麼判讀資料,經過對應問題與答案的訓練才能夠運作。換而言之,AI 無法超越程式,做它沒看過的事情,更無法替人類主宰一切!

-----廣告,請繼續往下閱讀-----

會產生 AI 可能發展出情感、甚至主宰人類命運的傳言,多半是因為我們對 AI 的訓練流程認識不足,也缺乏實際使用 AI 工具的經驗,因而對其懷抱戒慎恐懼的心態。這種狀況特別容易發生在文科人身上,更延伸到文科人與理科人的合作溝通上,因不了解彼此領域而產生誤會與衝突。如果文科人可以對 AI 的研發與應用有基本認識,不僅能讓跨領域的合作更加順利,還能在工作中應用 AI 解決許多棘手問題。

「職場上常遇到的狀況是,由於文科人不了解 AI 的訓練流程,因此對 AI 產生錯誤的期待,認為辛苦標注的上千筆資料,應該下個月就能看到成果,結果還是錯誤百出,準確率卡在 60、70% 而已。如果工程師又不肯解釋清楚,兩方就會陷入僵局,導致合作無疾而終。」蔡宗翰研究員分享多年的觀察與建議:

如果文科人了解基本的 AI 訓練流程,並在每個訓練階段協助分析:錯誤偏向哪些面向?AI 是否看過這方面資料?文科人就可以補充缺少的資料,讓 AI 再進行更完善的訓練。

史上最認真的學生:AI

認識 AI 的第一步,我們先從分辨什麼是 AI 做起。現在的數位工具五花八門,究竟什麼才是 AI 的應用?真正的 AI 有什麼樣的特徵?

基本上,有「預測」功能的才是 AI,你無法得知每次 AI 會做出什麼判斷。如果只是整合資料後視覺化呈現,而且人類手工操作就辦得到,那就不是 AI。

數位化到 AI 自動化作業的進程與舉例。圖/研之有物

蔡宗翰研究員以今日常見的語音辨識系統為例,大家可以試著對 Siri、Line 或 Google 上的語音辨識系統講一句話,你會發現自己無法事先知曉將產生什麼文字或回應,結果可能正是你想要的、也可能牛頭不對馬嘴。此現象點出 AI 與一般數位工具最明顯的不同:AI 無法百分之百正確!

-----廣告,請繼續往下閱讀-----

因此,AI 的運作需建立在不斷訓練、測試與調整的基礎上,盡量維持 80、90% 的準確率。在整個製程中最重要的就是訓練階段,工程師彷彿化身老師,必須設計一套學習方法,提供有助學習的豐富教材。而 AI 則是史上最認真的學生,可以穩定、一字不漏、日以繼夜地學習所有課程。

AI 的學習方法主要分為「非監督式學習」、「監督式學習」。非監督式學習是將大批資料提供給 AI,讓其根據工程師所定義的資料相似度算法,逐漸學會將相似資料分在同一堆,再由人類檢視並標注每堆資料對應的類別,進而產生監督式學習所需的訓練資料。而監督式學習則是將大批「資料」和「答案」提供給 AI,讓其逐漸學會將任意資料對應到正確答案。

圖/研之有物

學習到一定階段後,工程師會出試題,測試 AI 的學習狀況,如果成績只有 60、70 分,AI 會針對答錯的地方調整自己的觀念,而工程師也應該與專門領域專家一起討論,想想是否需補充什麼教材,讓 AI 的準確率可以再往上提升。

就算 AI 最後通過測試、可以正式上場工作,也可能因為時事與技術的推陳出新,導致準確率下降。這時,AI 就要定時進修,針對使用者回報的錯誤進行修正,不斷補充新的學習內容,讓自己可以跟得上最新趨勢。

-----廣告,請繼續往下閱讀-----

在了解 AI 的基本特徵與訓練流程後,蔡宗翰研究員建議:文科人可以看一些視覺化的操作影片,加深對訓練過程的認識,並實際參與檢視與標注資料的過程。現在網路上也有很多 playground,可以讓初學者練習怎麼訓練 AI,有了上述基本概念與實務經驗,就可以跟工程師溝通無礙了。

AI 能騙過人類,全靠「自然語言處理」

AI 的應用領域相當廣泛,而蔡宗翰研究員專精的是「自然語言處理」。問起當初想投入該領域的原因,他充滿自信地回答:因為自然語言處理是「AI 皇冠上的明珠」!這顆明珠開創 AI 發展的諸多可能性,可以快速讀過並分類所有資料,整理出能快速檢索的結構化內容,也可以如同真人般與人類溝通。

著名的「圖靈測試」(Turing Test)便證明了自然語言處理如何在 AI 智力提升上扮演關鍵角色。1950 年代,傳奇電腦科學家艾倫・圖靈(Alan Turing)設計了一個實驗,用來測試 AI 能否表現出與人類相當的智力水準。首先實驗者將 AI 架設好,並派一個人操作終端機,再找一個第三者來進行對話,判斷從終端機傳入的訊息是來自 AI 或真人,如果第三者無法判斷,代表 AI 通過測試。

圖靈測試:AI(A)與真人(B)同時傳訊息給第三者(C),如果 C 分不出訊息來自 A 或 B,代表 AI 通過實驗。圖/研之有物

換而言之,AI 必須擁有一定的智力,才可能成功騙過人類,讓人類不覺得自己在跟機器對話,而這有賴自然語言處理技術的精進。目前蔡宗翰的研究團隊有將自然語言處理應用在:人文研究文本分析、新聞真偽查核,更嘗試以合成語料訓練臺灣人專用的 AI 語言模型。

-----廣告,請繼續往下閱讀-----

讓 AI 替你查資料,追溯文本的起源

目前幾乎所有正史、許多地方志都已經數位化,而大量數位化的經典更被主動分享到「Chinese Text Project」平台,讓 AI 自然語言處理有豐富的文本資料可以分析,包含一字不漏地快速閱讀大量文本,進一步畫出重點、分門別類、比較相似之處等功能,既節省整理文本的時間,更能橫跨大範圍的文本、時間、空間,擴展研究的多元可能性。

例如我們想了解經典傳說《白蛇傳》是怎麼形成的?就可以應用 AI 進行文本溯源。白蛇傳的故事起源於北宋,由鎮江、杭州一帶的說書人所創作,著有話本《西湖三塔記》流傳後世。直至明代馮夢龍的《警世通言》二十八卷〈白娘子永鎮雷峰塔〉,才讓流傳 600 年的故事大體成型。

我們可以透過「命名實體辨識技術」標記文本中的人名、地名、時間、職業、動植物等關鍵故事元素,接著用這批標記好的語料來訓練 BERT 等序列標注模型,以便將「文本向量化」,進而找出給定段落與其他文本的相似之處。

經過多種文本的比較之後發現,白蛇傳的原型可追溯自印度教的那伽蛇族故事,傳說那伽龍王的三女兒轉化成佛、輔佐觀世音,或許與白蛇誤食舍利成精的概念有所關連,推測印度神話應該是跟著海上絲路傳進鎮江與杭州等通商口岸。此外,故事的雛型可能早從唐代便開始醞釀,晚唐傳奇《博異志》便記載了白蛇化身美女誘惑男子的故事,而法海和尚、金山寺等關鍵人物與景點皆真實存在,金山寺最初就是由唐宣宗時期的高僧法海所建。

-----廣告,請繼續往下閱讀-----
白蛇傳中鎮壓白娘子的雷峰塔。最早為五代吳越王錢俶於 972 年建造,北宋宣和二年(1120 年)曾因戰亂倒塌,大致為故事雛形到元素齊全的時期。照片中雷峰塔為 21 世紀重建。圖/Wikimedia

在 AI 的協助之下,我們得以跨時空比較不同文本,了解說書人如何結合印度神話、唐代傳奇、在地的真人真事,創作出流傳千年的白蛇傳經典。

最困難的挑戰:AI 如何判斷假新聞

除了應用在人文研究文本分析,AI 也可以查核新聞真偽,這對假新聞氾濫的當代社會是一大福音,但對 AI 來說可能是最困難的挑戰!蔡宗翰研究員指出 AI 的弱點:

如果是答案和數據很清楚的問題,就比較好訓練 AI。如果問題很複雜、變數很多,對 AI 來說就會很困難!

困難點在於新聞資訊的對錯會變動,可能這個時空是對的,另一個時空卻是錯的。雖然坊間有一些以「監督式學習」、「文本分類法」訓練出的假新聞分類器,可輸入當前的新聞讓機器去判讀真假,但過一段時間可能會失準,因為新的資訊源源不絕出現。而且道高一尺、魔高一丈,當 AI 好不容易能分辨出假新聞,製造假新聞的人就會破解偵測,創造出 AI 沒看過的新模式,讓先前的努力功虧一簣。

因此,現在多應用「事實查核法」,原理是讓 AI 模仿人類查核事實的過程,尋找權威資料庫中有無類似的陳述,可用來支持新聞上描述的事件、主張與說法。目前英國劍橋大學為主的學者群、Facebook 與 Amazon 等業界研究人員已組成 FEVEROUS 團隊,致力於建立英文事實查核法模型所能運用的資源,並透過舉辦國際競賽,廣邀全球學者專家投入研究。

-----廣告,請繼續往下閱讀-----

蔡宗翰教授團隊 2021 年參加 FEVEROUS 競賽勇奪全球第三、學術團隊第一後,也與合作夥伴事實查核中心及資策會討論,正著手建立中文事實查核法模型所需資源。預期在不久的將來,AI 就能幫讀者標出新聞中所有說法的資料來源,節省讀者查證新聞真偽的時間。

AI 的無限可能:專屬於你的療癒「杯麵」

想像與 AI 共存的未來,蔡宗翰研究員驚嘆於 AI 的學習能力,只要提供夠好、夠多的資料,幾乎都可以訓練到讓人驚訝的地步!圖/研之有物

AI 的未來充滿無限可能,不僅可以成為分類與查證資料的得力助手,還能照護並撫慰人類的心靈,這對邁入高齡化社會的臺灣來說格外重要!許多青壯年陷入三明治人(上有老、下有小要照顧)的困境,期待有像動畫《大英雄天團》的「杯麵」(Baymax)機器人出現,幫忙分擔家務、照顧家人,在身心勞累時給你一個溫暖的擁抱。

機器人陪伴高齡者已是現在進行式,新加坡南洋理工大學 Gauri Tulsulkar 教授等學者於 2021 年發表了一項部署在長照機構的機器人實驗。這名外表與人類相似的機器人叫「娜丁」(Nadine),由感知、處理、互動等三層架構組成,可以透過麥克風、3D和網路鏡頭感知用戶特徵、所處環境,並將上述資訊發送到處理層。處理層會依據感知層提供的資訊,連結該用戶先前與娜丁互動的記憶,讓互動層可以進行適當的對話、變化臉部表情、用手勢做出反應。

長照機構的高齡住戶多數因身心因素、長期缺乏聊天對象,或對陌生事物感到不安,常選擇靜默不語,需要照護者主動引導。因此,娜丁內建了注視追蹤模型,當偵測到住戶已長時間處於被動狀態,就會自動發起話題。

實驗發現,在娜丁進駐長照機構一段時間後,住戶有一半的天數會去找她互動,而娜丁偵測到的住戶情緒多為微笑和中性,其中有 8 位認知障礙住戶的溝通能力與心理狀態有明顯改善。

照護機器人娜丁的運作架構。圖/研之有物

至於未來的改進方向,研究團隊認為「語音辨識系統」仍有很大的改進空間,需要讓機器人能配合老年人緩慢且停頓較長的語速,音量也要能讓重聽者可以清楚聽見,並加強對方言與多語混雜的理解能力。

臺灣如要發展出能順暢溝通的機器人,首要任務就是要開發一套臺灣人專用的 AI 語言模型,包含華語、臺語、客語、原住民語及混合以上兩種語言的理解引擎。這需花費大量人力與經費蒐集各種語料、發展預訓練模型,期待政府能整合學界與業界的力量,降低各行各業導入 AI 相關語言服務的門檻。

或許 AI 無法發展出情感,但卻可以成為人類大腦的延伸,協助我們節省處理資料的時間,更可以心平氣和地回應人們的身心需求。與 AI 共存的未來即將來臨,如何讓自己的行事邏輯跟上 AI 時代,讓 AI 成為自己的助力,是值得你我關注的課題。

延伸閱讀

所有討論 1
研之有物│中央研究院_96
293 篇文章 ・ 3356 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

1
0

文字

分享

0
1
0
講話太難語音助理聽不懂?利用互動設計讓人講「機器話」
人機共生你我它_96
・2020/07/27 ・2309字 ・閱讀時間約 4 分鐘 ・SR值 536 ・七年級

「這段時間,我們一直納悶控制的方法在哪裡……」
「沒想到就是我們自己。」

——《人生複本》 Blake Crouch

有沒有注意自己的日常用語會跟自己經常接觸的朋友們越趨接近?像是辦公室有人開始講:「是在哈囉?」身旁會也越來越多人在不經意間說出:「是在哈囉?」我們跟某個朋友聊天時,如果對方原本都沒有在用貼圖,但是突然有一天他/她開始用了貼圖,我們也開始跟著用貼圖來回應對方。

用語上的一致性 (lexical alignment / lexical entrainment)能夠讓人跟人之間距離更靠近,增加彼此的信任感。不僅在語言上,行為上一致性(姿勢、動作等)也能在兩個溝通越來越順暢的人們身上觀察到,而且人們在沒有察覺的情況下,對於那些語言與行為跟自己一致的人也展現較多好感。

大家下次在外面吃飯時,不妨觀察隔壁桌的兩人是否會輪流用手托腮。圖/Unsplash

語言一致性的涵蓋範圍廣泛,包含用詞選擇、腔調、語速,甚至是修辭結構。

-----廣告,請繼續往下閱讀-----

舉例來說,當我們在跟朋友描述自己所在的位置時:「我在地下室一樓」此時,對方比較有可能回應「我在地下室二樓」,而不是「我在 B2」。

但人與人之間對話時的用語一致性跟語音助理設計有什麼關係呢?

無論與人或電腦對話,我們都會配合對方的用語

我們可以透過瞭解人跟電腦對話的時候,是否也會出現這樣的用語一致性。在這個實驗當中,研究者們會讓使用者分別跟三個不同的角色語音對話對話,分別是:

  • 真人
  • 較舊版本的電腦
  • 較新版本的電腦

而且使用者們會明確地被告知即將對話者的身分。如果是舊版電腦,就會看到一個螢幕開機畫面上寫著是 1987 年的作業系統版本;如果對話的是新版電腦,就會在螢幕上看到 2003 年的作業系統版本。

-----廣告,請繼續往下閱讀-----

圖/pickpik

接著,請使用者在實驗過程中分別跟三個不同的角色互相看著圖片描述一個物品,例如:看一張電燈的圖片。不過「電燈」的另一個稱呼也可以是「檯燈」,這時候研究者就讓他們輪流向對方說出照片裡的物品,進而讓研究者們分析使用者會不會因為對方用了某個詞彙,後續再看到同樣的圖片時也用同樣的詞彙。

結果發現,是的!使用者不但會配合另一個人的用詞方式,也會配合電腦的用詞。

即便使用者知道自己在跟電腦對話,當電腦一直用固定的詞彙描述圖中物品時,使用者的描述用詞也會配合電腦,就如同配合人一樣,用同樣的詞彙來描述物品。

但是這種用同樣詞彙的配合程度不同,當使用者知道自己在跟一個舊版本的電腦對話時,配合的程度就高於最新版本的電腦或是人類。也就是說,當我們知道電腦可能「比較笨」的時候,我們就更容易去配合它的用語。而這個效果透過很表面的知覺操弄就可以做到,就像實驗中讓使用者看到不同版本作業系統就會達到配合程度不同的效果。

-----廣告,請繼續往下閱讀-----

不只用詞,在句子結構上也會配合語音助理

除了看字彙選擇是不是會有一致性,研究者們也發現當請使用者分別跟另一個真人、另一個發出機器音的語音助理、另一個擬人聲的語音助理對話,無論和誰對話,使用者自己的句子結構都會有配合對方的傾向。

圖/Unsplash

研究者們邀請使用者向三個不同的角色互相描述圖片中的畫面,從中我們可以發現兩個不同的描述方式:

  • 左圖:「大明給小王一張卡片」=「大明把卡片給小王」;
  • 右圖:「一個藍色的圓圈」=「一個圓圈是藍色的」。

接著讓使用者分別跟三個角色輪流描述多長不同的圖片給對方聽。結果發現,如果對方一直用「A 把(物品)給 B」或是「形容詞 + 名詞」這種結構來描述圖片的話,自己後續描述圖片的方式也會趨向這個方式。

-----廣告,請繼續往下閱讀-----

所以,無論跟自己對話的是人,或是機器音的語音助理,還是擬人聲的語音助理都有同樣的效果。

利用人們「一致性」本能,互動設計讓語音助理更好用

從我們與語音助理的互動經驗中可以發現,只要語音助理無法辨識我們說出來的內容,就無法給出符合期待的回應,所以自然語言處理(Natural language processing, NLP)的專家們持續發展語音辨識的技術。然而在新技術尚未推出之前,我們其實可以從人機互動的角度來修正語音助理的設計。

以本次回顧的系列研究的結論來說,人會隨著溝通對象而改變語言使用習慣,包含用語、句構。尤其當人認為電腦越不聰明時,配合程度越強。因此,設計師們不妨根據現有技術,先讓語音助理講出一些簡單的句子結構來開啟對話,再引導使用者也使用相似的簡單結構來回覆,而不是一定要專注在設計出能夠進行複雜對話的語音助理。

例如:當我們透過 Hey, bot 喚醒語音助理後,先讓語音助理說出:「嗨,下指令」這個簡單的句子結構,進而引導使用者說出:「好,播音樂」。

從系統設計角度來看,這麼做能在一開始就讓使用者在不知不覺中說出系統比較容易辨識的指令。就像我們在跟小小孩對話的時候,當他對我們說:「我要車車~」的時候,自己也會很自然的回應:「車車給你~」。

-----廣告,請繼續往下閱讀-----

如此一來,使用者就不會因語音助理辨識錯誤而太失望了,不是嗎?

圖/unsplash

延伸閱讀

感謝沈奕超、張元嘉提供編輯建議

參考資料

  1. Cowan, B. R., Branigan, H. P., Obregón, M., Bugis, E., & Beale, R. (2015). Voice anthropomorphism, interlocutor modeling and alignment effects on syntactic choices in human-computer dialogue. International Journal of Human-Computer Studies, 83, 27-42.
  2. Branigan, H. P., Pickering, M. J., Pearson, J., McLean, J. F., & Brown, A. (2011). The role of beliefs in lexical alignment: Evidence from dialogs with humans and computers. Cognition, 121(1), 41-57.
文章難易度
人機共生你我它_96
12 篇文章 ・ 3 位粉絲
由致力於人機互動研究(HCI, Human-Computer Interaction)的研究者與實務工作者所創立,我們定期發表人機互動相關文章,與讀者一起思考科技對社會生活帶來的好處與限制。