是以在最後一個實驗中,研究者想知道人們的警覺,是不是造成「群體」組事實查核比例較低的原因之一,於是便要求參與者在開始讀新聞之前,先回想自己過去和現在的職責、義務與責任(duties, obligations, and responsibilities)。這麼一做,果然讓「群體」組選擇「事實查核」的比例增加到跟「單獨」組一樣高!
Jun, Y., Meng, R., & Johar, G. V. (2017). Perceived social presence reduces fact-checking. Proceedings of the National Academy of Sciences, 114(23), 5976–5981.
而另一種,那個開冰箱慢吞吞的機器人,雖然看起來笨,卻是在做一件革命性的事:它正在試圖由 AI 驅動,真正開始「理解」這個世界 。它在學習什麼是冰箱、什麼是蘋果、以及如何控制自己的力量才能順利拿起它。這個過程之所以緩慢,正是因為過去驅動它的「大腦」,也就是 AI 晶片的算力還不夠強,無法即時處理與學習現實世界中無窮的變數 。
這就是關鍵! 過去以NVIDIA Jetson Orin™作為大腦的機器人,僅能以有限的速度運行VLA模型。而由 VLA 模型驅動,讓 AI 能夠感知、理解並直接與物理世界互動的全新形態,正是「物理 AI」(Physical AI)的開端 。NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 。
NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 / 圖片來源:研華科技
其中,物理 AI 強調的 vision to action,就需要研華設計對應的硬體來實現;譬如視覺可能來自於一般相機、深度相機、紅外線相機甚至光達,你的系統就要有對應的介面來整合視覺;你也會需要控制介面去控制馬達伸長手臂或控制夾具拿取物品;你也要有 WIFI、4G 或 5G 來傳輸資料或和別的 AI 溝通,這些都需要具體化到一個系統上,這個系統的集大成就是機器人。
從樓梯的階高、門把的設計,到桌椅的高度,無一不是為了適應人類的雙足、雙手與身高而存在 。對 AI 而言,採用人形的軀體,意味著它能用與我們最相似的視角與方式去感知和學習這個世界,進而最快地理解並融入人類環境 。這背後的邏輯是,與其讓 AI 去適應千奇百怪的非人形設計,不如讓它直接採用這個已經被數千年人類文明「驗證」過的最優解 。
這也區分了「通用型 AI 人形機器人」與「專用型 AI 工業自動化設備」的本質不同 。後者像高度特化的工具,產線上的機械手臂能高效重複鎖螺絲,但它無法處理安裝柔軟水管這種預設外的任務 。而通用型人形機器人的目標,是成為一個「多面手」,它能在廣泛學習後,理解物理世界的運作規律 。理論上,今天它在產線上組裝伺服器,明天就能在廚房裡學會煮菜 。
「我家親戚群組又在 LINE 傳假訊息了!」這是常在年輕族群中聽到的抱怨,彷彿隨意散播謠言是長輩特有的行為,當你願意了解長輩的數位社交生活,將發現事實並非如此。中央研究院「研之有物」專訪院內民族學研究所李梅君助研究員,在研究 Cofacts 事實查核協作計畫時發現,臺灣民眾對公共議題的關注存在世代衝突,該衝突延伸至日常相處上,卻在事實查核的協作過程中看到正向溝通的曙光。究竟臺灣長輩發展出什麼樣的數位社交生活?如何應用第三方資訊與長輩溝通,甚至邀請長輩加入闢謠打怪行列?
此外,早安圖也是長輩與人互動的敲門磚。李梅君察覺,有些長輩在傳訊息時相當在意社交分寸,不像年輕人想到什麼就 LINE 一下朋友,反而擔心隨意發文會被當成不懂規矩的「老人」。因此,當與新朋友開啟話題時,他們會先禮貌性地試探,這時無害的早安圖就是最好的敲門磚,可以從對方回傳的字句、貼圖或已讀不回,判斷能否進一步交談。
但是,伴隨著早安圖的問候,群組裡轉傳的文字與圖像影片卻可能含有具爭議性的農場內容,例如每天喝檸檬水可以防疫、常喝地瓜葉牛奶可以防癌等,讓以關懷為出發點的長輩成為散播謠言的代罪羔羊。為此,有越來越多公民團體開始號召民眾一起打擊假訊息,李梅君研究的 Cofacts 就是其中一個針對 LINE 假訊息亂象所發展的計畫。
-----廣告,請繼續往下閱讀-----
聽到外面的聲音:「事實查核協作社群」打開群組封閉的大門
LINE 聊天室裡所有的對話都經過加密,就算檢舉了某用戶的言論,LINE 官方也難以遏阻資訊傳播。 圖/Unsplash
LINE 假訊息亂象一直是假新聞議題中非常難處理的一塊,因為 LINE 不像 Facebook、Twitter 或 Instagram 有審查下架機制,LINE 聊天室裡所有的對話都經過加密,就算檢舉了某用戶的言論,LINE 官方也難以遏阻資訊傳播。
李梅君提到:「雖然 LINE 群組相當封閉,在臺灣卻已具有極大的公共性。」很多群組都涉及公共議題的討論,並累積千百人以上的成員,一旦有人惡意散播不實謠言,在缺乏查核機制的情況下,後果可能不堪設想。
因此,自 2016 年起,公民科技社群 g0v 臺灣零時政府的成員推出「Cofacts 真的假的 – 訊息回報機器人與查證協作社群」,邀請民眾主動回報在 LINE 上發現的可疑訊息,再由來自各領域的編輯志工進行事實查核,撰寫有助判斷訊息真假的回應。之後只要有民眾發出相似問題,機器人便會從資料庫中找出相關回應供民眾參考。收到回應的民眾如有不同看法,也可以補充新的回應。
你可能會好奇,當今的「人工智慧」(AI)已可查核假訊息,為何 Cofacts 還在仰賴編輯志工這樣的「工人智慧」?李梅君指出,目前的 AI 僅可以偵查大規模的操弄訊息來源,或者評估影像有無修圖造假。當前要用 AI 來判讀文字內容的真偽還相當困難,因為一則文字訊息通常真假資訊參雜,當中還包括個人意見或情緒用詞,很難明確判定是真是假。
-----廣告,請繼續往下閱讀-----
因此,Cofacts 的編輯志工除了指出訊息錯誤之處,也會提醒該則訊息是否含有個人意見,有助民眾從封閉的 LINE 群組接收外界聲音,進而創造一處可以參與討論的公共空間,共同思考謠言是什麼、怎麼跟謠言對話。