在銀河威龍(也就是 Star Trek: The Next Generation 星際迷航記)中,身為生化人的艦隊科學官百科 (Data) 苦於無法理解人類,而裝上了情感晶片,沒想到卻引發危機。在 2014 年重啟的《機器戰警》電影版中,保留過多人類情感的戰警根本無法跟百分百機器人抗衡,降低至 1% 人類情感後的戰警儘管冷血,卻大獲全勝。在電影《星際效應》中,人類可以依照自己的需求調整機器人的幽默指數,讓與機器人互動這件事變得比較舒服,但也免不了對機器人產生同情。
能夠分辨觀眾立場跟傾向的人工智慧此刻已被結合進廣告投放裡,成為 Google 跟 Facebook 等公司的獨家致富祕技,但不久之後,能夠即時偵測情感的廣告系統將更大幅度地改變我們的閱聽行為,我們不都早已被訓練去按讚、開心、憤怒、或哭哭了嗎?或許以後我們瞳孔的變化、脈搏的起伏、皮膚的電流等,都將被收集、統計、運算,連點擊都不用。「讓每一個人都能更輕鬆地表達感受」,我想到時候這些科技公司應該會很光明正大又冠冕堂皇地這麼宣布吧。當然,隨之而來更精細的高科技情感詐騙手法,也已經迫在眉睫。
「我家親戚群組又在 LINE 傳假訊息了!」這是常在年輕族群中聽到的抱怨,彷彿隨意散播謠言是長輩特有的行為,當你願意了解長輩的數位社交生活,將發現事實並非如此。中央研究院「研之有物」專訪院內民族學研究所李梅君助研究員,在研究 Cofacts 事實查核協作計畫時發現,臺灣民眾對公共議題的關注存在世代衝突,該衝突延伸至日常相處上,卻在事實查核的協作過程中看到正向溝通的曙光。究竟臺灣長輩發展出什麼樣的數位社交生活?如何應用第三方資訊與長輩溝通,甚至邀請長輩加入闢謠打怪行列?
此外,早安圖也是長輩與人互動的敲門磚。李梅君察覺,有些長輩在傳訊息時相當在意社交分寸,不像年輕人想到什麼就 LINE 一下朋友,反而擔心隨意發文會被當成不懂規矩的「老人」。因此,當與新朋友開啟話題時,他們會先禮貌性地試探,這時無害的早安圖就是最好的敲門磚,可以從對方回傳的字句、貼圖或已讀不回,判斷能否進一步交談。
但是,伴隨著早安圖的問候,群組裡轉傳的文字與圖像影片卻可能含有具爭議性的農場內容,例如每天喝檸檬水可以防疫、常喝地瓜葉牛奶可以防癌等,讓以關懷為出發點的長輩成為散播謠言的代罪羔羊。為此,有越來越多公民團體開始號召民眾一起打擊假訊息,李梅君研究的 Cofacts 就是其中一個針對 LINE 假訊息亂象所發展的計畫。
聽到外面的聲音:「事實查核協作社群」打開群組封閉的大門
LINE 聊天室裡所有的對話都經過加密,就算檢舉了某用戶的言論,LINE 官方也難以遏阻資訊傳播。 圖/Unsplash
LINE 假訊息亂象一直是假新聞議題中非常難處理的一塊,因為 LINE 不像 Facebook、Twitter 或 Instagram 有審查下架機制,LINE 聊天室裡所有的對話都經過加密,就算檢舉了某用戶的言論,LINE 官方也難以遏阻資訊傳播。
李梅君提到:「雖然 LINE 群組相當封閉,在臺灣卻已具有極大的公共性。」很多群組都涉及公共議題的討論,並累積千百人以上的成員,一旦有人惡意散播不實謠言,在缺乏查核機制的情況下,後果可能不堪設想。
因此,自 2016 年起,公民科技社群 g0v 臺灣零時政府的成員推出「Cofacts 真的假的 – 訊息回報機器人與查證協作社群」,邀請民眾主動回報在 LINE 上發現的可疑訊息,再由來自各領域的編輯志工進行事實查核,撰寫有助判斷訊息真假的回應。之後只要有民眾發出相似問題,機器人便會從資料庫中找出相關回應供民眾參考。收到回應的民眾如有不同看法,也可以補充新的回應。
你可能會好奇,當今的「人工智慧」(AI)已可查核假訊息,為何 Cofacts 還在仰賴編輯志工這樣的「工人智慧」?李梅君指出,目前的 AI 僅可以偵查大規模的操弄訊息來源,或者評估影像有無修圖造假。當前要用 AI 來判讀文字內容的真偽還相當困難,因為一則文字訊息通常真假資訊參雜,當中還包括個人意見或情緒用詞,很難明確判定是真是假。
因此,Cofacts 的編輯志工除了指出訊息錯誤之處,也會提醒該則訊息是否含有個人意見,有助民眾從封閉的 LINE 群組接收外界聲音,進而創造一處可以參與討論的公共空間,共同思考謠言是什麼、怎麼跟謠言對話。