0

0
0

文字

分享

0
0
0

Facebook上大家都在看,所以你就這麼相信了?

哇賽心理學_96
・2017/08/08 ・1638字 ・閱讀時間約 3 分鐘 ・SR值 483 ・五年級

  • 作者 / Wen-Jing Lin
    前職能治療師。現為認知神經科學博士。 興趣是閱讀科學文獻。 認為散播知識是科學家回饋社會的方法之一。
分享新聞前請先仔細想想。圖/wikimedia commons.

從去年(2016)的美國總統大選之後,美國社會開始強烈關注「假新聞」這項議題。不過台灣的大家似乎更早就遭受假新聞的荼毒,算是走在世界潮流的前沿吧?(該覺得驕傲嗎這……)不過,大家在什麼情況下會去執行「事實查核」(fact checking)呢?應該是在對新聞內容感到有所懷疑的時候吧。但是啊,研究發現,當我們知道有其他人也在讀這些可疑的新聞時,進行事實查核的可能性就會降低。

別人也在看?有夥伴我們就不在乎真假

這個研究發表在《美國國家科學院院刊》,研究者以一系列八個實驗來告訴大家一件事——人們一旦覺察到其他讀者的存在,進行事實查核的意願便會降低。不過只要提醒人們回想自己的責任與義務,便有機會抵消這個負面效果!

主要的實驗流程是這樣的:實驗參與者必須登入某新聞網站並在上面閱讀三十多個新聞標題,但這些標題有真有假,參與者的工作便是決定哪些標題是真的哪些標題是假的。每答對一題得一分,但若答錯一題也會被扣一分,最終的分數會被換算成金錢,發放給參與者。選項有三個,除了「真」和「假」之外,還有「事實查核」這第三個選項。如果參與者在某一題選了「事實查核」這個選項,那他就可以在實驗結束時得知這一題的正確答案。

假新聞充斥的現在,大家在什麼情況下才願意執行「事實查證」呢?圖/Pixabay

參與者被分成兩組,其中一組人在登入新聞網站後,會見到自己的名字顯示在網頁角落,在此將這組稱之為「單獨」組。另一組人在登入後,除了自己的名字外,還會看到另外 102 個其他在線使用者的名字,稱之為「群體」組。就這樣,這個操弄很簡單吧?但是這樣竟然對參與者選擇〔事實查核〕的意願產生了影響。不管在哪個實驗中,「群體」組的參與者選擇「事實查核」的比例都比「單獨」組還要低。而且不管選擇「事實查核」可以加分或會被扣分,結果都是一樣的。

-----廣告,請繼續往下閱讀-----

只要小小提醒,我們便會提高警覺

圖 / Official White House Photo by Lawrence Jackson

接下來的實驗更神奇了。研究者把原本的「新聞網站」改成「Facebook」,也就是讓參與者在Facebook的介面上讀這些新聞標題並判斷真偽。結果當介面換成 Facebook 這種社交網站之後,「單獨」組選擇「事實查核」的比例竟然降得跟「群體」組一樣低。是不是因為 Facebook 這種社交網站,不管怎樣都會給人「總是會有誰也在看吧」的感覺呢?

中間還有好幾個實驗,這邊先略過不談,不過我想提一下最後一個實驗。因為研究者發現,一般而言警覺性(vigilance)比較高的人,似乎比較不容易因為身處群體中就疏於事實查核。

是以在最後一個實驗中,研究者想知道人們的警覺,是不是造成「群體」組事實查核比例較低的原因之一,於是便要求參與者在開始讀新聞之前,先回想自己過去和現在的職責、義務與責任(duties, obligations, and responsibilities)。這麼一做,果然讓「群體」組選擇「事實查核」的比例增加到跟「單獨」組一樣高!

社群網站上看新聞的時候要特別提高警覺喔!圖/Pixabay

所以囉,大家以後記得提醒自己,在社群網站上看新聞的時候要特別提高警覺,想清楚、再決定要不要按讚分享喔!

-----廣告,請繼續往下閱讀-----

參考文獻

  • Jun, Y., Meng, R., & Johar, G. V. (2017). Perceived social presence reduces fact-checking. Proceedings of the National Academy of Sciences114(23), 5976–5981.

本文轉載自哇賽心理學《等等,你確定這不是假新聞嗎?》

文章難易度
哇賽心理學_96
45 篇文章 ・ 9 位粉絲
希望能讓大眾看見心理學的有趣與美,期待有更多的交流與分享,讓心理學不只存在於精神疾患診療間或學校諮商室,更能擴及到生活使之融入每一刻。

1

3
0

文字

分享

1
3
0
誰在傳送假訊息?提升全民媒體素養,讓謠言止於智者!
研之有物│中央研究院_96
・2023/06/09 ・4698字 ・閱讀時間約 9 分鐘

-----廣告,請繼續往下閱讀-----

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|莊崇暉、田偲妤
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

不要再轉傳假訊息了!


「我家親戚群組又在 LINE 傳假訊息了!」這是常在年輕族群中聽到的抱怨,彷彿隨意散播謠言是長輩特有的行為,當你願意了解長輩的數位社交生活,將發現事實並非如此。中央研究院「研之有物」專訪院內民族學研究所李梅君助研究員,在研究 Cofacts 事實查核協作計畫時發現,臺灣民眾對公共議題的關注存在世代衝突,該衝突延伸至日常相處上,卻在事實查核的協作過程中看到正向溝通的曙光。究竟臺灣長輩發展出什麼樣的數位社交生活?如何應用第三方資訊與長輩溝通,甚至邀請長輩加入闢謠打怪行列?

圖/研之有物。

2018 年臺灣地方選舉和公民投票讓存在已久的世代衝突瞬間引爆,面對韓流現象、同性婚姻、性平教育等議題,厭世代年輕人(1990 年代左右出生)和戰後嬰兒潮世代長輩(約 1946-1964 年出生)因經濟與社會生長背景的不同,常發生意見分歧而爭吵不休的情形。

在臺灣最多人使用的 LINE 即時通訊軟體中,出現不實謠言滿天飛的亂象,年輕人紛紛將矛頭指向長輩,批評長輩不先查核資訊真假就亂發文。

中研院民族所李梅君助研究員在研究 Cofacts 事實查核協作計畫時,發覺臺灣世代衝突問題的嚴重性。年輕人認定長輩就是假訊息的傳遞者,但事實上,許多年輕人也常在無意間互傳不實謠言。

-----廣告,請繼續往下閱讀-----

「大眾常急著為長輩貼標籤,卻從來不去了解他們怎麼使用數位工具。這樣並無助於解決問題,只會加深彼此的誤會。」研究過程中逐一浮現的問題為李梅君指引出一條研究道路,從事實查核協作行動出發,逐步深入長輩的數位社交生活,探索緩解世代衝突、提升全民媒體素養的可能途徑。

「早安圖」的背後:長輩獨特的數位社交

圖/研之有物(圖片來源/Unsplash

從了解長輩的數位社交生活做起,應有助於促進不同世代的相互理解,李梅君選擇由長輩們發展出的「早安圖」文化來切入研究。

科技與生活的緊密結合讓人手一機成為常態,再加上疫情造成的人群接觸減少,讓人們日漸習慣將社交重心從實體轉往線上。越來越多長輩靠 LINE 群組維繫親友感情、接收外界資訊,每天一早發布的「早安圖」經常是長輩社交生活的起頭。

然而,早安圖一直有被汙名化的傾向,溫馨圖片配上吉祥文字的簡單排版被貼上具有長輩風格的標籤,甚至還被戲稱為「長輩圖」。李梅君與長輩相處後發現,早安圖的存在對於長輩的社交生活具有深刻意義。

-----廣告,請繼續往下閱讀-----

首先,早安圖是長輩證明自己跟的上年輕人腳步的重要象徵!身為晚近才接觸手機、電腦的「數位移民」,長輩常因不會操作數位工具、又害怕晚輩覺得自己笨拙,而感到焦躁不安。因此,當自己好不容易學會用手機拍照、修圖、發早安圖,對長輩來說是自信心的累積,代表自己沒被時代淘汰

此外,早安圖也是長輩與人互動的敲門磚。李梅君察覺,有些長輩在傳訊息時相當在意社交分寸,不像年輕人想到什麼就 LINE 一下朋友,反而擔心隨意發文會被當成不懂規矩的「老人」。因此,當與新朋友開啟話題時,他們會先禮貌性地試探,這時無害的早安圖就是最好的敲門磚,可以從對方回傳的字句、貼圖或已讀不回,判斷能否進一步交談。

如果我們願意深入體會早安圖對長輩的意義,你將發現早安圖是長輩表達「關懷」的重要媒介。

例如在不方便見面的疫情期間,許多長輩會互相分享充滿溫馨祝福的早安圖、早安短影片,當中包含一些身體保健資訊,即時表達對遠方親友的關心,也讓對方知道自己過的很好。

但是,伴隨著早安圖的問候,群組裡轉傳的文字與圖像影片卻可能含有具爭議性的農場內容,例如每天喝檸檬水可以防疫、常喝地瓜葉牛奶可以防癌等,讓以關懷為出發點的長輩成為散播謠言的代罪羔羊。為此,有越來越多公民團體開始號召民眾一起打擊假訊息,李梅君研究的 Cofacts 就是其中一個針對 LINE 假訊息亂象所發展的計畫。

-----廣告,請繼續往下閱讀-----

聽到外面的聲音:「事實查核協作社群」打開群組封閉的大門

LINE 聊天室裡所有的對話都經過加密,就算檢舉了某用戶的言論,LINE 官方也難以遏阻資訊傳播。
圖/Unsplash

LINE 假訊息亂象一直是假新聞議題中非常難處理的一塊,因為 LINE 不像 Facebook、Twitter 或 Instagram 有審查下架機制,LINE 聊天室裡所有的對話都經過加密,就算檢舉了某用戶的言論,LINE 官方也難以遏阻資訊傳播。

李梅君提到:「雖然 LINE 群組相當封閉,在臺灣卻已具有極大的公共性。」很多群組都涉及公共議題的討論,並累積千百人以上的成員,一旦有人惡意散播不實謠言,在缺乏查核機制的情況下,後果可能不堪設想。

因此,自 2016 年起,公民科技社群 g0v 臺灣零時政府的成員推出「Cofacts 真的假的 – 訊息回報機器人與查證協作社群」,邀請民眾主動回報在 LINE 上發現的可疑訊息,再由來自各領域的編輯志工進行事實查核,撰寫有助判斷訊息真假的回應。之後只要有民眾發出相似問題,機器人便會從資料庫中找出相關回應供民眾參考。收到回應的民眾如有不同看法,也可以補充新的回應。

在 Cofacts 群組回報 18 歲公民可以選市長的可疑訊息,獲得豐富的澄清回應與參考資料,使用者也可補充新的回應或分享給朋友。
圖/截圖自 Cofacts 群組

你可能會好奇,當今的「人工智慧」(AI)已可查核假訊息,為何 Cofacts 還在仰賴編輯志工這樣的「工人智慧」?李梅君指出,目前的 AI 僅可以偵查大規模的操弄訊息來源,或者評估影像有無修圖造假。當前要用 AI 來判讀文字內容的真偽還相當困難,因為一則文字訊息通常真假資訊參雜,當中還包括個人意見或情緒用詞,很難明確判定是真是假。

-----廣告,請繼續往下閱讀-----

因此,Cofacts 的編輯志工除了指出訊息錯誤之處,也會提醒該則訊息是否含有個人意見,有助民眾從封閉的 LINE 群組接收外界聲音,進而創造一處可以參與討論的公共空間,共同思考謠言是什麼、怎麼跟謠言對話。

和時間賽跑 艱辛的闢謠之路

不過該計畫也有艱辛之處,由於需仰賴大量人力進行事實查核,Cofacts 經常面臨闢謠速度趕不上謠言散播的問題。根據統計,Cofacts 的 LINE 目前有 42 萬名好友,過去 10 週每週傳來約 650 則新謠言;目前登記的編輯志工大約有 2,600 多人,但每週會固定回應訊息者只有 20 人上下,平均澄清一則謠言要花 20 至 30 分鐘。

李梅君分享實際參與事實查核的心得:「一開始你可能很熱血地上線回應訊息,但回應了一、二天後,可能會逐漸失去參與感,畢竟你只是一個沒支薪的志工,而且很多謠言看了又很令人痛苦,還要耐著性子花 30 分鐘回應。」

因此,為了維持志工夥伴的參與熱情,Cofacts 每個月都會辦一次聚會,藉由分組競賽活動,讓志工們培養共同打怪的向心力,也可相互交流查核經驗、結交志同道合的朋友。

-----廣告,請繼續往下閱讀-----
李梅君分享實際參與 Cofacts 事實查核的心得,編輯志工透過每月聚會維繫共同打怪的向心力。
圖/研之有物

至於使用 Cofacts 釐清謠言的民眾又有何回饋呢?李梅君聽過一些年輕志工分享參與事實查核的原因,主要是想透過 Cofacts 的第三方資訊與長輩對話。雖然不確定長輩能否接受,卻可盡量避免家人之間發生正面衝突。

根據李梅君的觀察,在政治議題上,純粹處理謠言無法真正化解世代衝突,因為謠言只是表現形式之一,背後牽涉每個人不同的價值觀與政治立場,需仰賴更多對話空間的產生。

不過,在疫情期間,與防疫相關的健康資訊則明顯受到不同世代的共同關注,Cofacts 的使用人數因此大幅成長,其中增加最多的就是 50 歲以上的使用者。因為健康資訊較不受政治立場影響,再加上全民必須共同面對疫情威脅,世代衝突的問題自然較少。

公民團體的辛勤奔走 努力提升全民媒體素養才是真正的關鍵

ChatGPT 等生成式 AI 問世後,未來可能會出現更多人為操作的假圖文,或是誤信 AI 偏差回覆等狀況。面對上述危機,李梅君認為:

應對關鍵在於,大眾是否具備足夠的「媒體素養」與「思辨能力」去判讀網路訊息。

可惜這在我們過去的教育裡並不受重視,直到近幾年教育部才開始在 108 課綱下推動「媒體素養教育」,要求在不同年級與學科中融入媒體素養課程。例如資訊課會介紹社群媒體用演算法投放廣告的邏輯;理化課會教學生分辨並思考「偽科學」的成因;國文課則透過閱讀不同文本培養思辨能力。

-----廣告,請繼續往下閱讀-----

然而,社會上多數人沒有上過相關課程,很多還是不太熟悉數位工具的長輩,幸好現在有 Cofacts 以及多家臺灣公民團體在做媒體素養教育。他們主動走進長輩的生活圈,教長輩怎麼使用手機、如何確認訊息真假,甚至鼓勵長輩善用發早安圖的習慣,成為謠言破除推手。

李梅君目前的研究正在觀察這些公民團體怎麼採取行動。例如 NGO 組織「假新聞清潔劑」會前進廟口、菜市場或老人服務中心等長輩聚集地,舉辦街頭宣講活動。在宣講過程中,一開始不會直接跟長輩講假訊息,因為假訊息在臺灣的脈絡裡很容易被導向敏感的政治議題,誤以為要聊網軍。

因此,宣講的切入點通常會先問長輩是不是常收到詐騙訊息?接著,志工會分享一些受騙案例,例如有人買了網路一頁式廣告的保養品,結果臉爛掉;或是吃了來路不明的保健食品,最後弄壞身體。藉由生活化、無政治立場、令人感同身受的案例,讓長輩意識到學會辨別訊息真假很重要!

另一個事實查核的組織「MyGoPen|麥擱騙」會製作一則則精美的謠言澄清圖文,吸引長輩像發早安圖一樣,將這些闢謠圖文大量轉發到各個群組。如此一來,長輩本身既可釐清謠言,還可幫助更多長輩遠離詐騙,更證明自己擁有不輸給年輕人的知識與能力。

-----廣告,請繼續往下閱讀-----
「MyGoPen/麥擱騙」製作的謠言澄清圖文,網站上也有詳細的澄清說明與參考資料
圖/截圖自 MyGoPen 群組

「我覺得這是很令人感動的事情,因為這個題目很難,可是有很多人願意用不同的角度去介入,而且大部分都是志工。」李梅君有感而發的說。

臺灣長期被國際視為境外假訊息泛濫的國度,如今一個提升全民媒體素養的生態圈正在形成,因假訊息而延伸出的世代衝突問題有待長時間相互理解溝通,但公民社群的力量讓人們看見改變的契機。

李梅君有感而發的談到,過去很多國際友人將臺灣視為一處被假訊息攻擊很嚴重的地方,現在我們已發展出一個應對的生態圈,國際上越來越多人來跟臺灣學習!圖/研之有物

延伸閱讀

所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3415 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

1
0

文字

分享

0
1
0
給你多少錢,才會願意放棄使用 FB ?社群軟體的體驗該如何被「金錢」衡量?──《資訊超載的幸福與詛咒》
天下文化_96
・2022/08/27 ・2405字 ・閱讀時間約 5 分鐘

使用社群媒體後,你變得更快樂還是更憂鬱?

想知道更多資訊的時候,你可能會上網搜尋。有時候是為了資訊的工具價值,比如透過 Google 地圖確認 A 地到 B地 的路線;腳踝扭傷時,也可以從網路上搜尋到應變的實用資訊;又或是並非真的出於任何用途,只覺得知道某些事很有趣,像是忽然想了解流行音樂歷史。你當然完全可以這樣做。

我們身邊有許多資訊都是一些抽象的概念,其中部分資訊卻可能和你切身相關。比如依據某些基本事實可以推斷你的預期壽命;某些資訊可以了解你的健康風險、未來「錢」景,甚至是個性。比起 10 年前,我們現在能得到的資訊更為詳盡正確,再過 10 年,肯定能夠知道得更多。

這章要談的內容很多,不妨開頭就先提示最大的重點:

研究顯示,整體而言,臉書會讓人變得比較不開心,而且可能感到憂鬱、更為焦慮,也對生活變得更不滿意。

你每天花多少時間使用 FB?使用社群軟體對你的心情造成了什麼影響?圖/Pixabay

我並不打算危言聳聽,事實上這些影響並不大。然而,它們的確存在。

-----廣告,請繼續往下閱讀-----

而與此同時,有些人明明已經停用臉書、也感受到幸福感明顯增加,卻又非常想要重新打開臉書。實際上他們要求要得到一大筆錢才願意放棄臉書。這是為什麼?我們雖然無法確定,但一項合理的解釋是,使用臉書的體驗,包括帶來的資訊,並不會讓人變得更快樂,但還是有它的價值。

無知並不是幸福,而很多人都感受到這一點。人們需要知道自己在意的資訊,這是因為喜歡、甚至珍視一種和重要的人之間產生連結的感覺。

若須付費才能使用社群媒體,會怎樣?

重要的是,我們必須強調,社群媒體的功能不僅僅是提供資訊,至少不是我在這裡反覆強調的揭露資訊的意義。你會使用臉書,可能是為了和家人或朋友聯繫,也可能是為了改善荷包或健康。但無論如何,社群媒體的一大重點在於資訊傳遞,雖然這個概念要比我目前所談的更為廣泛。

而這裡的核心問題是:社群媒體究竟多值錢?

-----廣告,請繼續往下閱讀-----

在社群媒體上,大部分的資訊是免費的,至少表面上你無須付費;或許可以說你仍需要付出注意力或個資等等。臉書和推特這些企業是從廣告獲得收益,但有鑑於相關爭議不斷,也有人認真討論起將這些平台及其服務的商業模式改成付費使用。

除此之外也有些偏理論的探討,主要關注在如何評估這些平台的經濟價值。要是民眾必須付費才能使用臉書,情況會變得如何?而民眾又願意花多少錢成為用戶?

要是社群媒體要付費的話,你們願意花多少錢呢?圖/LightFieldStudios

這些答案會透露出一些重要的資訊,讓我們知道社群媒體與一般資訊所擁有的價值。而回答這些問題,也有助於了解一些更基本的問題:如何計算經濟上的價值;知道某些消費決定可能只是表面工夫;了解傳統經濟指標與實際民眾福利有何差距(請見第二章)。此外,這些答案也會進一步影響政策與法規。

要你放棄使用 FB ,可能比要你付費使用來得更難?

行為經濟學特別感興趣的一個問題,就是「支付意願」和「願意接受金額」間可能出現的巨大落差。

-----廣告,請繼續往下閱讀-----

以臉書為例,如果我們想知道它能為我們帶來多少福利,究竟該問民眾願意為此付出多少錢,抑或該問要給他們多少錢才會願意放棄使用臉書?許多研究都探討過稟賦效應(endowment effect)的現象,也就是被要求放棄某樣商品時所要求的價格,會遠高於他們當初獲得這些商品時支付的費用

稟賦效應目前還有爭議,至少在適用的領域、來源與程度上仍未有定論。我們可能會想知道,使用社群媒體願意付出的費用,是否大於不使用社群媒體所得到的費用?如果是的話,傳統論點又能否提出說明?

IKEA 所設置的家具體驗區,常常被拿來當作「稟賦效應」的案例。圖/Pixabay

另一個同樣常見、甚至是更基本的問題,則是涉及支付意願或願意接受金額的衡量與民眾福利。我在前面也提過,在經濟學中,要是談到民眾擁有某樣商品時的福利效果,往往是以民眾願意付出多少錢來使用那件商品作為衡量。

當然,「願意付出多少錢」也是現實市場的衡量標準。但請回想一下,要提出這項金額,事實上也就是做出預測:預測該商品會對自己的福利造成什麼樣的影響。

-----廣告,請繼續往下閱讀-----

這個問題乍看不難,尤其當談到自己熟悉的商品(鞋子、襯衫、肥皂);但換做是從未使用過的商品,回答起來也就沒那麼簡單。對於一項從未擁有過的商品,哪知道能帶給自己多大的福利效果,以及可以換算成多少錢?

對許多人而言,臉書、推特、Instagram 等平台都是再熟悉不過的社群媒體,而且有著豐富的使用體驗。但出於某些我們馬上會討論到的原因,社群媒體用戶就是很難估算這些平台可以換算的金錢價值。

只要看看民眾提出使用社群媒體願意付出的金額,就會了解在尋求資訊上,「願意付出的金額」和民眾得到的福利效果似乎並不對等;同時值得進一步研究其中的福利效果究竟是什麼。

在這種時候,「願意付出的金額」只反映出部分的福利效果,還可能只反映一小部分。我們必須找出反映效果不佳的實際原因,並且嘗試找出更能呈現福利效果的方式。而我在這裡的目標,就是希望推進這項任務的進展。

-----廣告,請繼續往下閱讀-----


——本文摘自《資訊超載的幸福與詛咒》,2022 年 8 月,天下文化 ,未經同意請勿轉載。

天下文化_96
132 篇文章 ・ 618 位粉絲
天下文化成立於1982年。一直堅持「傳播進步觀念,豐富閱讀世界」,已出版超過2,500種書籍,涵括財經企管、心理勵志、社會人文、科學文化、文學人生、健康生活、親子教養等領域。每一本書都帶給讀者知識、啟發、創意、以及實用的多重收穫,也持續引領台灣社會與國際重要管理潮流同步接軌。

1

5
3

文字

分享

1
5
3
Deepfake 不一定是問題,不知道才是大問題!關於 Deepfake,你需要知道的是⋯⋯?
TingWei
・2022/01/24 ・3489字 ・閱讀時間約 7 分鐘

編按:你的理智知道「眼見不為憑」,但你的眼睛還是會背叛你的理智,不自覺得被眼前的影像所吸引,儘管你真的、真的知道他是假的。Youtuber 小玉於2021年底涉嫌利用 Deepfake 技術,偽造多位名人的色情影音內容並販售的事件,既不是第一起、也不是唯一、更不會是最後一個利用「深偽技術」進行科技犯罪的事件。

當科技在走,社會和法律該如何跟上甚至超前部署呢?本次 Deepfake 專題,由泛科學和法律白話文合作,從Deepfake 技術與辨偽技術、到法律如何因應,讓我們一起全方位解析Deepfake!

第一篇,讓我們就 Deepfake 技術做一基礎的介紹,那我們就開始囉!

什麼是 Deepfake?

深偽技術 Deepfake 於 2017 年陸續開始進入大眾的目光中。原文 Deepfake 源自於英文「deep learning」(深度學習)和「fake」(偽造)組合,主要意指應用人工智慧深度學習的技術,合成某個(不一定存在的)人的圖像或影片、甚至聲音。最常見的應用,就是將影片中的人臉替換為另一張臉(常是名人),讓指定的臉在影片中做出自己從未說過或做過的事情。

利用深度學習技術合成或是置換人臉的技術,都是屬於Deepfake。圖 / stephenwolfram

現今談到 Deepfake,大多數人想到的可能是偽造的成人影片,就如前述 Youtuber 小玉的事件,Deepfake 一開始受到關注,主要與名人或明星的臉部影像被合成到成人影片有關,然而,Deepfake 的功能遠不僅於此,相關的技術使用還包括了替換表情、合成一整張臉、合成語音等等。

除了像是讓過去或現在的名人在影片中「栩栩如生」做出使用者想要的表情與動作,之前在社群媒體上曾有好幾款 APP一度風靡,包括上傳一張照片就可以看看「變老」「變性」自己的 FaceApp,甚至於讓自己的臉在經典電影中講上一段台詞的「去演」APP,這類的功能也是應用前述 Deepfake 的技術。

雖然有些線索顯示這類 APP 常有潛在的資安疑慮[註],但好歹技術的成果多屬搏君一燦自娛娛人,尚可視為無傷大雅。

-----廣告,請繼續往下閱讀-----
「栩栩如生」的愛因斯坦

而過往電影的影音產業要仿造人臉需要應用許多複雜、耗時、昂貴的電腦模擬,有了 Deepfake 相關的技術,也使得許多只能抱憾放棄的事情出現了彌補的空間。最有名的應用應是好萊塢電影《玩命關頭7》與《星際大戰》系列。《玩命關頭7》拍攝期間主角保羅・沃克(Paul William Walker IV)意外身亡,剩下的戲份後來由弟弟擔綱演出,劇組再以 Deepfake 的技術讓哥哥弟弟連戲,整部電影才得以殺青上映。

Weta Digital 說明如何讓保羅・沃克的弟弟 Brian O’Conner 能透過 Deefake 的技術,繼續協助 保羅・沃克演完《玩命關頭7》

Deepfake 讓「變臉」變得太容易了?

想想過去的電影如《魔戒》中的咕嚕、或是 2008 年布萊德・彼特主演的《班傑明的奇幻旅程》,將影片或照片中人物「換臉」「變老」的修圖或 CG 技術,在 Deepfake 出世之前就已經存在了。Deepfake 受到關注的核心關鍵在於,應用 AI 的深度學習的演算法,加上越來越強大的電腦與手機運算能力,讓「影片換臉」這件事情變得越來越隨手可得、並且天衣無縫。

利用CG技術把布萊德・彼特「變老」。 圖 / © 2008 – Paramount Pictures

過往電影中採用的 CG 技術要花好幾個月由專業人士進行後製,才能取得難辨真偽的影像效果,而應用了 AI 演算法,只需要一台桌上型電腦甚或是手機,上網就可以取得軟體、有機會獲得差強人意的結果了。

進一步,傳統軟體演算法主要依靠工程師的持續修改調整,而如 Deepfake 這類技術,內部的演算法會經過訓練持續進化。有許多技術被應用於提高 Deepfake 的偽造效果,其中最常見的一個作法被稱為「生成對抗網路(Generative Adversarial Network, GAN)」,這裡面包含了兩組神經網路「生成器(Generator)」和「辨識器(Discriminator)」。

-----廣告,請繼續往下閱讀-----

在投入訓練資料之後,這兩組神經網路會相互學習訓練,有點像是坐在主人頭上的小天使與小惡魔會互相吐槽、口才越來越好、想出更好的點子;在練習的過程中,「生成器」會持續生成偽造的影像,而「辨識器」則負責評分,反覆訓練下來,偽造生成的技術進步,辨識偽造的技術也得以進步。

舉例來說,This Person Does Not Exist 這個網站就充滿了使用 GAN 架構建構的人臉,這個網站中的人臉看上去非常真實,實際上都是 AI 製造出來的「假臉」。

This Person Does Not Exist 裡的「假臉」。

Deepfake 影片不一定是問題,不知道是 Deepfake 才是問題

現今的 Deepfake 技術得以持續進步、騙過人眼是許多人努力的成果,也不見得都是壞事。像是《星際大戰:俠盜一號》片尾,年輕的萊婭公主出面驚鴻一瞥,就帶給許多老粉絲驚喜。這項技術應用癥結在於,相關演算法輕易就能取得,除了讓有心人可以藉以產製色情影片(這類影片佔了Deepfake濫用的半數以上),Deepfake 製造的影片在人們不知情的情況下,很有可能成為虛假訊息的載體、心理戰的武器,甚至於影響選戰與輿情。

因此,Deepfake 弄假似真不是問題,閱聽者因此「不辨真假」才將是最大的問題所在。

-----廣告,請繼續往下閱讀-----
歐巴馬的 Deepfake 影片

相關的研究人員歸納了幾個這類「變臉」影片常見的特徵,可以用來初步辨識眼前的影片是不是偽造的。

首先,由於 AI 尚無法非常細緻的處理一些動作細節,因此其眨眼、視線變化或臉部抽蓄的動作會較不自然。其次,通常在邊緣處,如髮絲、臉的邊緣線、耳環等區域會出現不連貫的狀況。最後,在一些結構細節會出現不合理的陰影瑕疵,像是嘴角的角度位置等。

由於現階段的 Deepfake 通常需要大量的訓練資料(影像或影片)才能達到理想的偽造成果,因此會遭到「換臉」的受害者,主要集中在影像資源豐富的名人,如電影明星、Youtuber、政治人物等。需要注意的是,如果有人意圖使用 Deepfake 技術製造假消息,其所製造的影片不見得需要非常完美,有可能反而降低解析度、非常粗糙,一般人如用手機瀏覽往往難辨真假。

人眼已經難辨真假,那麼以子之矛攻彼之盾,以 AI 技術辨識找出 Deepfake 的成品,有沒有機會呢?隨著 Deepfake 逐漸成為熱門的議題,有許多團隊也開始試圖藉由深度學習技術,辨識偽造影像。2020 年臉書與微軟開始舉辦的「換臉偵測大賽」(Deepfake Detection Challenge)就提供高額獎金,徵求能夠辨識造假影片的技術。然而成果只能說是差強人意,面對從未接觸過的影片,第一名辨識的準確率僅為 65.18%。

-----廣告,請繼續往下閱讀-----
「換臉偵測大賽」(Deepfake Detection Challenge)的辨識素材。圖/MetaAi

對於 Deepfake 可能遭到的濫用,某部分我們可以寄望技術的發展未來終將「道高一尺」,讓社群平台上的影像不致於毫無遮攔、照單全收;然而技術持續「魔高一丈」讓防範的科技追著跑,也是顯而易見的。

社群網路 FB 在 2020 年宣布全面禁止 Deepfake 產生的影片,一旦有確認者立即刪除,twitter 則強制註記影片為造假影片。Deepfake 僅僅是未來面對 AI 浪潮,科技社會所需要應對的其中一項議題,法律、社會規範如何跟上?如何解決箇中的著作權與倫理問題?這些都將是需要經過層層討論與驗證的重要課題。

至少大家應該心知肚明,過往的網路流行語:「有圖有真相」已經過去,接下來即將面臨的,是一個「有影片也難有真相」的網路世界了。

  • 註解:推出 FaceApp 與「去演」的兩家公司其軟體皆要求註冊,且對於上傳資料之後續處理交代不清,被認為有侵犯使用者隱私權之疑慮。

參考資料

-----廣告,請繼續往下閱讀-----
  1. Deepfakes and the New AI-Generated Fake Media Creation-Detection Arms Race – Scientific American
  2. What To Do About Deepfakes | March 2021 | Communications of the ACM
  3. Tolosana, R., Vera-Rodriguez, R., Fierrez, J., Morales, A., & Ortega-Garcia, J. (2020). Deepfakes and beyond: A survey of face manipulation and fake detection. Information Fusion, 64, 131-148.
  4. Deepfake 深偽技術的技術濫用與道德困境,大眾正要開始面對 | TechNews 科技新報
  5. 台灣團隊研究辨識Deep Fake影片 深偽技術的正邪之戰開打 | 台灣事實查核中心 (tfc-taiwan.org.tw)

所有討論 1
TingWei
13 篇文章 ・ 15 位粉絲
據說一生科科的生科中人,不務正業嗜好以書櫃堆滿房間,努力養活雙貓為近期的主要人生目標。