0

0
0

文字

分享

0
0
0

你值得更美好的生活,別被科學偽新聞耽誤了——《新生活判讀力》序文

科學新聞解剖室_96
・2018/02/15 ・2048字 ・閱讀時間約 4 分鐘 ・SR值 511 ・六年級

  • 科學新聞解剖室/一號解剖員 黃俊儒

這真是一個多采多姿的年代,每天我們都有看不完的訊息,學習不完的知識,不僅很多都是免費的,還會自己搶著送上門。你高興訂閱什麼粉絲頁就訂閱什麼粉絲頁,你高興加誰好友就加誰好友,相較於過往我們的訊息容易被少數主流媒體壟斷,這個時代的新媒體概況,似乎提供了一種救贖,好像讓我們獲得了解放。

但是長久以來所累積的經驗法則也告誡過我們「免費的最貴」,這是個屢試不爽的硬道理,所以美好的人生真的有透過這種媒體型態的改變來獲得嗎?相信所有深諳社群媒體背後那套演算法(algorithm)運作的人,應該都不會這麼地樂觀,因為這些無所不在的社群媒體網絡正在用一套全新的模式支配我們每一個人對於訊息的獲得。

圖/dizer@pixabay

每當時序進入冬天的時候,台灣的空氣就開始變得慘不忍睹,污穢的氣流不時盤旋在台灣的上空。有一天,透過LINE群組,我接到了朋友傳來的一則關懷簡訊:「快通知北部親友趕緊關窗,中南部也要,因霾害嚴重。」不僅如此,內容還寫道「中研院陳伶志博士表示,這波主力在晚上9點登陸北部,約凌晨2點會到台中,約5點會到台南、高雄一帶,嚴格來說今晚全台都會被影響到。」最後更提醒「這幾天最好戴口罩!」,過了不久,另一個親戚群組也傳來了一模一樣的簡訊。總之,在幾天之內,我總共收到了三次這則同樣的訊息。

這串充滿愛與關懷的簡訊到底有什麼問題?它的問題很簡單,就是它沒有說明這裡的「晚上」指的是哪一天的晚上?因為我平時很關心這些空氣品質相關的訊息,所以當我第一次收到簡訊時,我知道它已經距離陳博士所說的「那天」經過了三天。

-----廣告,請繼續往下閱讀-----

後來這個故事的前因後果是這樣的,內容是陳博士說的沒錯,只是陳博士將這些訊息發表在個人的臉書上,熱心的朋友們就幫忙整理轉載這一則訊息到LINE群組,因為著急的口吻就像是要搶救失火那樣的急,所以充滿民胞物與胸懷的朋友們就急著爭相走告,深怕慢了一個時辰就讓親朋好友們蒙受健康上的不測風險。

關心空污沒有錯,滿滿的愛心沒有錯,即時的走告沒有錯,但是這些好事與美德都需要建立在一個訊息無誤的基本前提之下,否則就是大家白忙一場。所以我好害怕在一年後、五年後、甚至十年後,還收到這則要大家在當晚急著關窗戶的簡訊。

這樣的訊息其實不難懷疑、不難查找、不難檢驗,難似乎是難在那股急著想要拯救親朋於水深火熱的衝動。這個時代的訊息太多元、太零散,瞬息萬變的科技風險以及應接不瑕的資訊焦慮讓人太難耐,就連沒有搶到光棍節的促銷商品,都足以讓人徒呼負負、輾轉難眠。

我們總是同意謠言止於智者,但是在這個時代裡面,當一位「智者」可不容易,需要擁有的技能不少,無法像過往般的簡單。在這些智者所需要擁有的基本配備裡面,恐怕首要的就是要徹底地遵行「不確定的不分享」這個最基本守則。如果這麼基本的守則都做不到,那麼耽誤的不僅是自己的人生,更可能是別人的美好生活。

-----廣告,請繼續往下閱讀-----

這個「關窗簡訊事件」僅是眾多資訊紊流裡面的一個最入門款陷阱,社群媒體真是這個新時代裡讓人又愛又恨的產物。2017年蘋果公司的執行長Tim Cook在接受美國NBC夜間新聞(NBC Nightly News)採訪時也指出,社群媒體已經淪為散播不實消息和操縱輿論的工具,尤其是所促成的這種「同溫層效應」,讓每個人在自己的回音中不斷地再聽見、再強化自己的聲音,鞏固自己的偏見。

例如上述的這一則關窗簡訊,它在許多中年人群組中廣為傳播,但是在年輕人的群組中卻乏人問津(依據我的大學生現場民調),這種同溫層之間彼此取暖及相互輝映的現象,甚至已經足以造成國安問題,如果不加以突圍,我們實在很難以擺脫這個時代的各種民粹。而這個問題的嚴重程度,也難怪在12年國教的新課綱架構中,會特別地去強調素養為導向的教學,並且強調同時將科學素養及媒體素養放在一起思考的重要性。

如果有一天,我們新一代的年輕人可以懂得判斷這些資訊,懂得掙脫同溫層的隔絕,大家的生活才有機會更美好。

本書集結了科學新聞解剖室針對日常生活中,俯拾即是的各種科學流言進行的剖析,一如科學新聞解剖室過往對於這些問題的針砭,我們運用了科學素養及媒體素養這兩把解剖刀,為讀者一一剖析流竄在各種社群媒體中的典型科學偽新聞謬誤。透過這一本書,我們希望傳達給讀者一個具有整體觀及系統觀的解析視角,這個視角是一種可以帶得走的能力,一個可以永久防身的利器。透過這一本書,你學會的不會僅是這12則典型案例裡面的零散科學知識,而是能學會如何以一個具有邏輯及理智的方式去面對一則來路不明的訊息,真正享受這些資訊帶給你的成長與樂趣。

-----廣告,請繼續往下閱讀-----

對於這些光怪陸離的科學偽新聞,「多解剖沒事,沒事多解剖」,美好的新生活不用假手他人,就從突破這些資訊的魔咒開始。

本文為《新生活判讀力:別讓科學偽新聞誤導你的人生》序文

-----廣告,請繼續往下閱讀-----
文章難易度
科學新聞解剖室_96
37 篇文章 ・ 12 位粉絲
「科學新聞解剖室」是由中正大學科學傳播教育研究室所成立的科學新聞監督平台,這個平台結合許多不同領域的科學解剖專家及義工,以台灣科學新聞最容易犯下的10種錯誤類型作為基礎,要讓「科學偽新聞」無所遁形。已出版《新時代判讀力:教你一眼看穿科學新聞的真偽》《新生活判讀力:別讓科學偽新聞誤導你的人生》(有關10種錯誤的內涵,請參見《別輕易相信!你必須知道的科學偽新聞》一書)。

0

1
0

文字

分享

0
1
0
停工即停薪:如何證明你的時間值多少?車禍背後的認知 x 情緒 x 金錢 x 法律大混戰
鳥苷三磷酸 (PanSci Promo)_96
・2026/01/09 ・3351字 ・閱讀時間約 6 分鐘

-----廣告,請繼續往下閱讀-----

本文與 PAMO車禍線上律師 合作,泛科學企劃執行

走在台灣的街頭,你是否發現馬路變得越來越「急躁」?滿街穿梭的外送員、分秒必爭的多元計程車,為了拚單量與獎金,每個人都在跟時間賽跑 。與此同時,拜經濟發展所賜,路上的豪車也變多了 。

這場關於速度與金錢的博弈,讓車禍不再只是一場意外,更是一場複雜的經濟算計。PAMO 車禍線上律師施尚宏律師在接受《思想實驗室 video podcast》訪談時指出,我們正處於一個交通生態的轉折點,當「把車當生財工具」的職業駕駛,撞上了「將車視為珍貴資產」的豪車車主,傳統的理賠邏輯往往會失靈 。

在「停工即停薪」(有跑才有錢,沒跑就沒收入)的零工經濟時代,如果運氣不好遇上車禍,我們該如何證明自己的時間價值?又該如何在保險無法覆蓋的灰色地帶中全身而退?

-----廣告,請繼續往下閱讀-----
如果運氣不好遇上車禍,我們該如何證明自己的時間價值?/ 圖片來源: Nano Banana

薪資證明的難題:零工經濟者的「隱形損失」

過去處理車禍理賠,邏輯相對單純:拿出公司的薪資單或扣繳憑單,計算這幾個月的平均薪資,就能算出因傷停工的「薪資損失」。

但在零工經濟時代,這套邏輯卡關了!施尚宏律師指出,許多外送員、自由接案者或是工地打工者,他們的收入往往是領現金,或者分散在多個不同的 App 平台中 。更麻煩的是,零工經濟的特性是「高度變動」,上個月可能拚了 7 萬,這個月休息可能只有 0 元,導致「平均收入」難以定義 。

這時候,律師的角色就不只是法條的背誦者,更像是一名「翻譯」。

施律師解釋「PAMO車禍線上律師的工作是把外送員口中零散的『跑單損失』,轉譯成法官或保險公司聽得懂的法律語言。」 這包括將不同平台(如 Uber、台灣大車隊)的流水帳整合,或是找出過往的接單紀錄來證明當事人的「勞動能力」。即使當下沒有收入(例如學生開學期間),只要能證明過往的接單能力與紀錄,在談判桌上就有籌碼要求合理的「勞動力減損賠償 」。

-----廣告,請繼續往下閱讀-----
PAMO車禍線上律師的工作是把外送員口中零散的『跑單損失』,轉譯成法官或保險公司聽得懂的法律語言 / 圖片來源: Nano Banana

300 萬張罰單背後的僥倖:你的直覺,正在害死你

根據警政署統計,台灣交通違規的第一名常年是「違規停車」,一年可以開出約 300 萬張罰單 。這龐大的數字背後,藏著兩個台灣駕駛人最容易誤判的「直覺陷阱」。

陷阱 A:我在紅線違停,人還在車上,沒撞到也要負責? 許多人認為:「我人就在車上,車子也沒動,甚至是熄火狀態。結果一台機車為了閃避我,自己操作不當摔倒了,這關我什麼事?」

施律師警告,這是一個致命的陷阱。「人在車上」或「車子沒動」在法律上並不是免死金牌 。法律看重的是「因果關係」。只要你的違停行為阻礙了視線或壓縮了車道,導致後方車輛必須閃避而發生事故,你就可能必須背負民事賠償責任,甚至揹上「過失傷害」的刑責 。 

數據會說話: 台灣每年約有 700 件車禍是直接因違規停車導致的 。這 300 萬張罰單背後的僥倖心態,其巨大的代價可能是人命。

-----廣告,請繼續往下閱讀-----

陷阱 B:變換車道沒擦撞,對方自己嚇到摔車也算我的? 另一個常年霸榜的肇事原因是「變換車道不當」 。如果你切換車道時,後方騎士因為嚇到而摔車,但你感覺車身「沒震動、沒碰撞」,能不能直接開走?

答案是:絕對不行。

施律師強調,車禍不以「碰撞」為前提 。只要你的駕駛行為與對方的事故有因果關係,你若直接離開現場,在法律上就構成了「肇事逃逸」。這是一條公訴罪,後果遠比你想像的嚴重。正確的做法永遠是:停下來報警,釐清責任,並保留行車記錄器自保 。

正確的做法永遠是:停下來報警,釐清責任,並保留行車記錄器自保 。/ 圖片來源: Nano Banana

保險不夠賠?豪車時代的「超額算計」

另一個現代駕駛的惡夢,是撞到豪車。這不僅是因為修車費貴,更因為衍生出的「代步費用」驚人。

-----廣告,請繼續往下閱讀-----

施律師舉例,過去撞到車,只要把車修好就沒事。但現在如果撞到一台 BMW 320,車主可能會主張修車的 8 天期間,他需要租一台同等級的 BMW 320 來代步 。以一天租金 4000 元計算,光是代步費就多了 3 萬多塊 。這時候,一般人會發現「全險」竟然不夠用。為什麼?

因為保險公司承擔的是「合理的賠償責任」,他們有內部的數據庫,只願意賠償一般行情的修車費或代步費 。但對方車主可能不這麼想,為了拿到這筆額外的錢,對方可能會採取「以刑逼民」的策略:提告過失傷害,利用刑事訴訟的壓力(背上前科的恐懼),迫使你自掏腰包補足保險公司不願賠償的差額 。

這就是為什麼在全險之外,駕駛人仍需要懂得談判策略,或考慮尋求律師協助,在保險公司與對方的漫天喊價之間,找到一個停損點 。

談判桌的最佳姿態:「溫柔而堅定」最有效?

除了有單據的財損,車禍中最難談判的往往是「精神慰撫金」。施律師直言,這在法律上沒有公式,甚至有點像「開獎」,高度依賴法官的自由心證 。

-----廣告,請繼續往下閱讀-----

雖然保險公司內部有一套簡單的算法(例如醫療費用的 2 到 5 倍),但到了法院,法官會考量雙方的社會地位、傷勢嚴重程度 。在缺乏標準公式的情況下,正確的「態度」能幫您起到加分效果。

施律師建議,在談判桌上最好的姿態是「溫柔而堅定」。有些人會試圖「扮窮」或「裝兇」,這通常會有反效果。特別是面對看過無數案件的保險理賠員,裝兇只會讓對方心裡想著:「進了法院我保證你一毛都拿不到,準備看你笑話」。

相反地,如果你能客氣地溝通,但手中握有完整的接單紀錄、醫療單據,清楚知道自己的底線與權益,這種「堅定」反而能讓談判對手買單,甚至在證明不足的情況下(如外送員的開學期間收入),更願意採信你的主張 。

車禍不只是一場意外,它是認知、情緒、金錢與法律邏輯的總和 。

在這個交通環境日益複雜的時代,無論你是為了生計奔波的職業駕駛,還是天天上路的通勤族,光靠保險或許已經不夠。大部分的車禍其實都是小案子,可能只是賠償 2000 元的輕微擦撞,或是責任不明的糾紛。為了這點錢,要花幾萬塊請律師打官司絕對「不划算」。但當事人往往會因為資訊落差,恐懼於「會不會被告肇逃?」、「會不會留案底?」、「賠償多少才合理?」而整夜睡不著覺 。

-----廣告,請繼續往下閱讀-----

PAMO看準了這個「焦慮商機」, 推出了一種顛覆傳統的解決方案——「年費 1200 元的訂閱制法律服務 」。

這就像是「法律界的 Netflix」或「汽車強制險」的概念。PAMO 的核心邏輯不是「代打」,而是「賦能」。不同於傳統律師收費高昂,PAMO 提倡的是「大腦武裝」,當車禍發生時,線上律師團提供策略,教你怎麼做筆錄、怎麼蒐證、怎麼判斷對方開價合不合理等。

施律師表示,他們的目標是讓客戶在面對不確定的風險時,背後有個軍師,能安心地睡個好覺 。平時保留好收入證明、發生事故時懂得不亂說話、與各方談判時掌握對應策略 。

平時保留好收入證明、發生事故時懂得不亂說話、與各方談判時掌握對應策略 。 / 圖片來源: Nano Banana

從違停的陷阱到訂閱制的解方,我們正處於交通與法律的轉型期。未來,挑戰將更加嚴峻。

-----廣告,請繼續往下閱讀-----

當 AI 與自駕車(Level 4/5)真正上路,一旦發生事故,責任主體將從「駕駛人」轉向「車廠」或「演算法系統」 。屆時,誰該負責?怎麼舉證?

但在那天來臨之前,面對馬路上的豪車、零工騎士與法律陷阱,你選擇相信運氣,還是相信策略? 先「武裝好自己的大腦」,或許才是現代駕駛人最明智的保險。

PAMO車禍線上律師官網:https://pse.is/8juv6k 

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

1

3
1

文字

分享

1
3
1
AI 也會出差錯?使用人工智慧可能帶來的倫理與風險——《科學月刊》
科學月刊_96
・2023/02/19 ・3978字 ・閱讀時間約 8 分鐘

  • 甘偵蓉|清華大學人文社會 AI 應用與發展研究中心博士後研究學者。

Take Home Message

  • Facebook 或 Instagram 的訊息推薦、YouTube 或 Netflix 推薦觀賞影片、掃瞄臉部以解鎖手機,AI 應用早已在我們日常生活中隨處可見。
  • AI 應用中四種常見的倫理和風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。
  • 近年來各國家皆制訂有關 AI 發展的規範,臺灣則在 2019 年制訂「AI 科研發展指引」,期望能改善 AI 發展帶來的問題與風險。

當談到人工智慧(artificial intelligence, AI)、也就是 AI 時,讀者會想到什麼?是多年前由史匹柏(Steven Spielberg)導演的那部《A.I. 人工智慧》(A.I. Artificial Intelligence)中那個一直盼不到人類母愛而令人心碎的機器人小男孩?還是由史密斯(Will Smith)主演的《機械公敵》(I, Robot)裡那些沒遵守機器人三大法則的機器人或中央系統?

《A.I. 人工智慧》(A.I. Artificial Intelligence)電影海報,上映於 2001 年。圖/IMDb

或許未來有一天,人類真的可以設計出如電影中那些像人一樣的 AI 系統或機器人。但目前為止,你常聽到的 AI 其實既很厲害又很不厲害,為什麼呢?厲害的是它下圍棋可贏過世界冠軍,還能夠比放射科技師更快、更準確地辨識 X 光片中疑似病變的細胞;但它不厲害的是,很會下圍棋的 AI 就只能下圍棋,別說不會打牌,連撲克牌是什麼都不知道!而且每次學新事物幾乎都是打掉重練,得不斷做好多考古題才有可能學得會,不像人類通常教幾次就會舉一反三。

不過,即使目前世界上的 AI 都是這種只具備特定功能的「弱 AI」(artificial narrow intelligence, ANI),但已經為這個世界帶來相當大的進步與便利。所以,以下要談的就是 ANI 的倫理與風險。

談到這種只具特定功能的 ANI,讀者知道目前生活周遭有哪些事物有利用 AI 技術嗎?其實 Google 上的搜尋資訊、Facebook 或 Instagram 的訊息推薦、對智慧型手機喊「Siri 現在外面有下雨嗎?」等功能,或是以掃瞄臉部解鎖手機與進入大樓、YouTube 或 Netflix 推薦觀賞影片,甚至是投履歷求職、銀行審核貸款申請等都常用到 AI 技術,它早在我們日常生活中隨處可見。

-----廣告,請繼續往下閱讀-----
AI 技術在日常生活中隨處可見,如 YouTube 推薦觀看影片。圖/Pexels

但也正是如此,讓人們這幾年在使用 AI 時,逐漸發現它可能造成的問題或傷害,以下簡單介紹常見的四種AI應用可能造成的倫理問題或風險。

演算法偏誤

第一種是演算法偏誤(algorithmic bias)。什麼是演算法偏誤?簡單來說就是 AI 在某些群體的判斷準確率或預測結果上總是很差,導致結果可能對於此群體造成系統性的不利。但為何會造成演算法偏誤?常見原因有三項。

第一項原因是,建立 AI 模型的研究資料集有偏誤,在性別、種族、社經地位等特徵上,沒有真實世界的人口分布代表性。例如數位裝置採用 AI 臉部辨識技術解鎖,原本是希望保護個人使用數位裝置的安全性,結果皮膚深的人卻常常遇到辨識失敗而無法解鎖。這通常是因為目前許多 AI 模型都是以機器學習技術設計,而機器學習的主要特性就是從過去人類留下的大量資料中學習;當初提供電腦學習臉部辨識的圖片時,如果多數都是白皮膚而非黑皮膚、多數都是男性的臉而非女性的臉,那麼電腦在學習辨識人臉的準確率上,整體而言辨識男性白人就會比辨識女性黑人要高出許多。

第二項產生演算法偏誤的原因是建立 AI 模型的研究資料集不只有偏誤,還反映現實社會中的性別、種族、社經地位等歧視;例如美國警政單位以過往犯罪資料訓練出獄後犯人再犯風險評估的 AI 模型,那些資料不意外地有色人種的犯罪紀錄遠多於白人犯罪紀錄。然而,那些紀錄也反映美國社會長久以來對於有色人種的歧視,其中包含警察對於有色人種的盤查比例遠高於白人、法院對於有色人種的定罪比例及判刑嚴重程度也遠高於白人、警力通常被派往多黑人與拉丁裔人種居住的窮困社區盤查等。所以根據過往犯罪資料所訓練出來的 AI 模型,不意外地也就會預測有色人種的再犯機率普遍來說比白人高。

-----廣告,請繼續往下閱讀-----

第三項產生演算法偏誤的原因則是 AI 學會了連系統開發者都沒有察覺到,潛藏在資料裡的偏誤。例如科技公司人資部門本來想借助 AI 更有效率地篩選出適合來面試的履歷,所以挑選在該公司任職一定年資且曾升遷二次的員工履歷來訓練 AI 模型。問題是,高科技公司向來男多女少,所提供給 AI 學習的資料自然就男女比例相當不均。AI 也就學會了凡是出現偏向女性名字、嗜好、畢業學校系所等文字的履歷,平均所給的評分都比出現偏向男性等相關文字的履歷還低。

潛藏在資料裡的偏誤造成 AI 預測結果彷彿帶有性別歧視。圖/Envato Elements

但目前科技公司陽盛陰衰,是受到以往鼓勵男性就讀理工、女性就讀人文科系,或男性在外工作女性在家帶小孩等性別刻板偏見所影響。所以 20~30 年來許多人做出各種努力以消除這種性別刻板偏見所帶來的不良影響,政府也努力制定各種政策來消除這種不當的性別偏見,像是求才廣告基本上不能限定性別、公司聘雇員工應該達到一定的性別比例等。因此,訓練 AI 的研究資料一旦隱藏類似前述性別比例不均的現象,訓練出來的 AI 預測結果就彷彿帶有性別歧視,讓人們過往致力消除性別不平等的各種努力都白費了!

其他 AI 應用帶來的倫理與風險

除了演算法偏誤的問題外,第二種可能帶來的倫理問題或風險是 AI 技術已經偏離原先使用目的,例如深偽技術(deepfake)原本用來解決圖片資料量不夠的問題,後來卻被利用在偽造名人性愛影片等。

第三種則是有些 AI 技術或產品本身就可能有善惡兩種用途(dual-use)。例如 AI 人臉辨識技術可用在保護數位裝置的使用者或大樓保全,但也可用來窺探或監控特定個人;無人機可以在農業上幫助農夫播種,但也可作為自動殺人武器;可用來搜尋如何產生毒性最少的藥物合成演算法,也能反過來成為搜尋如何產生毒性最強的藥物合成演算法。

-----廣告,請繼續往下閱讀-----

最後,第四種是演算法設計不良或現有技術限制所導致的問題。在演算法設計不良方面,例如下棋機器人手臂可能因為沒有設計施力回饋或移動受阻暫停等防呆裝置,而造成誤抓人類棋手的手指且弄斷的意外。在現有技術限制方面,道路駕駛的交通標誌在現實中可能時常有老舊或髒汙的情況,儘管對於人類駕駛來說可能不影響判讀,但對於自駕車來說很可能就因此會嚴重誤判,例如無法正確辨識禁止通行標誌而繼續行駛,或是將速限 35 公里誤判成 85 公里等。但前述情況也有可能是自駕車網路、控制權限或物件辨識模型受到惡意攻擊所致。

以上介紹了 AI 常見的四種倫理問題或風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。但人們該如何減少這些倫理問題與風險呢?

培養AI使用倫理與風險的敏銳度

近五、六年來國際組織如聯合國教育科學及文化組織(United Nations Educational, Scientific and Cultural Organization, UNESCO)、歐盟(European Union, EU)、電機電子工程師學會(Institute of Electrical and Electronics Engineers, IEEE)或是國家、國際非營利組織皆紛紛制訂有關 AI 發展的白皮書或倫理指引(ethical guidelines),甚至逐漸朝向法律治理的方向,如歐盟的人工智慧規則草案等。儘管這些文件所提出的倫理價值、原則或行為規範,看似各有不同,但經過這些年的討論與摸索,也逐漸匯聚出一些共識。

「人工智慧科研發展指引」提出三項倫理價值,包含以人為本、永續發展、多元包容。圖/Pexels

臺灣相較於前述國際文件來說,在制訂的時間上比較晚。2019 年由當時的科技部(現改為國科會)制訂「人工智慧科研發展指引」,裡面提出的三項倫理價值以及八項行為指引,基本上涵蓋了前述各種國際 AI 發展指引文件最常提及的內容。所謂三項倫理價值包含以人為本、永續發展、多元包容,行為指引則有共榮共利、安全性、問責與溝通、自主權與控制權、透明性與可追溯性、可解釋性、個人隱私與數據治理、公平性與非歧視性共八項。

-----廣告,請繼續往下閱讀-----

未來當讀者看到又出現哪些 AI 新技術或產品時,不妨試著評估看看是否有符合這三項價值及八項行為指引。若沒有,究竟是哪項不符合?不符合的原因是上述所介紹常見的四種倫理問題或風險的哪一種?若都不是,還有哪些倫理問題或風險過去被忽略了但值得重視?

AI 技術發展日新月進,在日常生活中的應用也愈來愈廣。但考量法律條文有強制性,在制訂時必須相當謹慎,免得動輒得咎,也很可能在不清楚狀況下反而制訂了不當阻礙創新發展的條文;再加上法律制定也必須有一定的穩定性,不能朝令夕改,否則會讓遵守法規者無所適從。因此可以想見,法令規範趕不上新興科技所帶來的問題與風險本來就是常態,而非遇到 AI 科技才有這種情況。

人們若能培養自身對於 AI 倫理問題或風險的敏銳度,便可發揮公民監督或協助政府監督的力量,評估 AI 開發或使用者有無善盡避免傷害特定個人或群體之嫌,逐漸改善 AI 開發者與大眾媒體常過度誇大 AI 功能,但對於可能帶來的倫理問題或風險卻常閃爍其詞或避而不談的不好現象。

本文感謝工業技術研究院產業科技國際策略發展所支持。

  • 〈本文選自《科學月刊》2023 年 2 月號〉
  • 科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。
-----廣告,請繼續往下閱讀-----
所有討論 1
科學月刊_96
249 篇文章 ・ 3974 位粉絲
非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。

0

0
0

文字

分享

0
0
0
你值得更美好的生活,別被科學偽新聞耽誤了——《新生活判讀力》序文
科學新聞解剖室_96
・2018/02/15 ・2048字 ・閱讀時間約 4 分鐘 ・SR值 511 ・六年級

  • 科學新聞解剖室/一號解剖員 黃俊儒

這真是一個多采多姿的年代,每天我們都有看不完的訊息,學習不完的知識,不僅很多都是免費的,還會自己搶著送上門。你高興訂閱什麼粉絲頁就訂閱什麼粉絲頁,你高興加誰好友就加誰好友,相較於過往我們的訊息容易被少數主流媒體壟斷,這個時代的新媒體概況,似乎提供了一種救贖,好像讓我們獲得了解放。

但是長久以來所累積的經驗法則也告誡過我們「免費的最貴」,這是個屢試不爽的硬道理,所以美好的人生真的有透過這種媒體型態的改變來獲得嗎?相信所有深諳社群媒體背後那套演算法(algorithm)運作的人,應該都不會這麼地樂觀,因為這些無所不在的社群媒體網絡正在用一套全新的模式支配我們每一個人對於訊息的獲得。

圖/dizer@pixabay

每當時序進入冬天的時候,台灣的空氣就開始變得慘不忍睹,污穢的氣流不時盤旋在台灣的上空。有一天,透過LINE群組,我接到了朋友傳來的一則關懷簡訊:「快通知北部親友趕緊關窗,中南部也要,因霾害嚴重。」不僅如此,內容還寫道「中研院陳伶志博士表示,這波主力在晚上9點登陸北部,約凌晨2點會到台中,約5點會到台南、高雄一帶,嚴格來說今晚全台都會被影響到。」最後更提醒「這幾天最好戴口罩!」,過了不久,另一個親戚群組也傳來了一模一樣的簡訊。總之,在幾天之內,我總共收到了三次這則同樣的訊息。

-----廣告,請繼續往下閱讀-----

這串充滿愛與關懷的簡訊到底有什麼問題?它的問題很簡單,就是它沒有說明這裡的「晚上」指的是哪一天的晚上?因為我平時很關心這些空氣品質相關的訊息,所以當我第一次收到簡訊時,我知道它已經距離陳博士所說的「那天」經過了三天。

後來這個故事的前因後果是這樣的,內容是陳博士說的沒錯,只是陳博士將這些訊息發表在個人的臉書上,熱心的朋友們就幫忙整理轉載這一則訊息到LINE群組,因為著急的口吻就像是要搶救失火那樣的急,所以充滿民胞物與胸懷的朋友們就急著爭相走告,深怕慢了一個時辰就讓親朋好友們蒙受健康上的不測風險。

關心空污沒有錯,滿滿的愛心沒有錯,即時的走告沒有錯,但是這些好事與美德都需要建立在一個訊息無誤的基本前提之下,否則就是大家白忙一場。所以我好害怕在一年後、五年後、甚至十年後,還收到這則要大家在當晚急著關窗戶的簡訊。

這樣的訊息其實不難懷疑、不難查找、不難檢驗,難似乎是難在那股急著想要拯救親朋於水深火熱的衝動。這個時代的訊息太多元、太零散,瞬息萬變的科技風險以及應接不瑕的資訊焦慮讓人太難耐,就連沒有搶到光棍節的促銷商品,都足以讓人徒呼負負、輾轉難眠。

-----廣告,請繼續往下閱讀-----

我們總是同意謠言止於智者,但是在這個時代裡面,當一位「智者」可不容易,需要擁有的技能不少,無法像過往般的簡單。在這些智者所需要擁有的基本配備裡面,恐怕首要的就是要徹底地遵行「不確定的不分享」這個最基本守則。如果這麼基本的守則都做不到,那麼耽誤的不僅是自己的人生,更可能是別人的美好生活。

這個「關窗簡訊事件」僅是眾多資訊紊流裡面的一個最入門款陷阱,社群媒體真是這個新時代裡讓人又愛又恨的產物。2017年蘋果公司的執行長Tim Cook在接受美國NBC夜間新聞(NBC Nightly News)採訪時也指出,社群媒體已經淪為散播不實消息和操縱輿論的工具,尤其是所促成的這種「同溫層效應」,讓每個人在自己的回音中不斷地再聽見、再強化自己的聲音,鞏固自己的偏見。

例如上述的這一則關窗簡訊,它在許多中年人群組中廣為傳播,但是在年輕人的群組中卻乏人問津(依據我的大學生現場民調),這種同溫層之間彼此取暖及相互輝映的現象,甚至已經足以造成國安問題,如果不加以突圍,我們實在很難以擺脫這個時代的各種民粹。而這個問題的嚴重程度,也難怪在12年國教的新課綱架構中,會特別地去強調素養為導向的教學,並且強調同時將科學素養及媒體素養放在一起思考的重要性。

如果有一天,我們新一代的年輕人可以懂得判斷這些資訊,懂得掙脫同溫層的隔絕,大家的生活才有機會更美好。

-----廣告,請繼續往下閱讀-----

本書集結了科學新聞解剖室針對日常生活中,俯拾即是的各種科學流言進行的剖析,一如科學新聞解剖室過往對於這些問題的針砭,我們運用了科學素養及媒體素養這兩把解剖刀,為讀者一一剖析流竄在各種社群媒體中的典型科學偽新聞謬誤。透過這一本書,我們希望傳達給讀者一個具有整體觀及系統觀的解析視角,這個視角是一種可以帶得走的能力,一個可以永久防身的利器。透過這一本書,你學會的不會僅是這12則典型案例裡面的零散科學知識,而是能學會如何以一個具有邏輯及理智的方式去面對一則來路不明的訊息,真正享受這些資訊帶給你的成長與樂趣。

對於這些光怪陸離的科學偽新聞,「多解剖沒事,沒事多解剖」,美好的新生活不用假手他人,就從突破這些資訊的魔咒開始。

本文為《新生活判讀力:別讓科學偽新聞誤導你的人生》序文

-----廣告,請繼續往下閱讀-----
文章難易度
科學新聞解剖室_96
37 篇文章 ・ 12 位粉絲
「科學新聞解剖室」是由中正大學科學傳播教育研究室所成立的科學新聞監督平台,這個平台結合許多不同領域的科學解剖專家及義工,以台灣科學新聞最容易犯下的10種錯誤類型作為基礎,要讓「科學偽新聞」無所遁形。已出版《新時代判讀力:教你一眼看穿科學新聞的真偽》《新生活判讀力:別讓科學偽新聞誤導你的人生》(有關10種錯誤的內涵,請參見《別輕易相信!你必須知道的科學偽新聞》一書)。

0

2
1

文字

分享

0
2
1
AI 的 3 種學習形式:不同的目標功能,不同的訓練方式——《 AI 世代與我們的未來》
聯經出版_96
・2022/12/27 ・2368字 ・閱讀時間約 4 分鐘

搭配不同的任務,人工智慧的應用方式也不一樣,所以開發人員用來創造人工智慧的科技也不一樣。這是部署機器學習時最基礎的挑戰:不同的目標和功能需要不同的訓練技巧。

機器學習最基礎的挑戰:不同目標和功能需配合不同訓練技巧。圖/Pexels

不過,結合不同的機器學習法,尤其是應用神經網路,就出現不同的可能性,例如發現癌症的人工智慧。

機器的 3 種學習形式

在我們撰寫本章的時候,機器學習的三種形式:受監督式學習、不受監督式學習和增強式學習,都值得注意。

受監督式學習催生了發現海利黴素的人工智慧。總結來說,麻省理工學院的研究人員想要找出有潛力的新抗生素,在資料庫裡放入二千種分子來訓練模型,輸入項目是分子結構,輸出項目是抑菌效果;研究人員把分子結構展示給人工智慧看,每一種結構都標示抗菌力,然後讓人工智慧去評估新化合物的抗菌效果。

-----廣告,請繼續往下閱讀-----

這種技巧稱為受監督式學習,因為人工智慧開發人員利用包含了輸入範例(即分子結構)的資料集,在這裡面,每一筆數據都單獨標示研究人員想要的輸出項目或結果(即抗菌力)。

開發人員已經把受監督式學習的技巧應用於許多處,例如創造人工智慧來辨識影像。為了這項任務,人工智慧先拿已經標示好的圖像來訓練,學著把圖像和標籤,例如把貓的照片和「貓」的標籤,聯想在一起,人工智慧把圖片和標籤的關係編碼之後,就可以正確地辨識新圖片。

貓貓!圖/Pexels

因此,當開發人員有一個資料集,其中每個輸入項目都有期望的輸出項目,受監督式學習就能有效地創造出模型,根據新的輸入項目來預測輸出項目。

不過,當開發人員只有大量資料,沒有建立關係的時候,他們可以透過不受監督式學習來找出可能有用的見解。因為網際網路與資料數位化,比過去更容易取得資料,現在企業、政府和研究人員都被淹沒在資料中。

-----廣告,請繼續往下閱讀-----

行銷人員擁有更多顧客資訊、生物學家擁有更多資料、銀行家有更多金融交易記錄。當行銷人員想要找出客戶群,或詐騙分析師想要在大量交易中找到不一致的資訊,不受監督式學習就可以讓人工智慧在不確定結果的資訊中找出異常模式。

這時,訓練資料只有輸入項目,然後工程師會要求學習演算法根據相似性來設定權重,將資料分類。舉例來說,像網飛(Netflix)這樣的影音串流服務,就是利用演算法來找出哪些觀眾群有類似的觀影習慣,才好向他們推薦更多節目;但要優化、微調這樣的演算法會很複雜:因為多數人有好幾種興趣,會同時出現在很多組別裡。

影音串流服務利用演算法,進而推薦使用者可能喜歡的節目。圖/Pexels

經過不受監督式學習法訓練的人工智慧,可以找出人類或許會錯過的模式,因為這些模式很微妙、數據規模又龐大。因為這樣的人工智慧在訓練時沒有明定什麼結果才「適當」,所以可以產生讓人驚豔的創新見解,這其實和人類的自我教育沒什麼不同——無論是人類自學或是人工智慧,都會產生稀奇古怪、荒謬無理的結果。

不管是受監督式學習法或不受監督式學習法,人工智慧都是運用資料來執行任務,以發現新趨勢、識別影像或做出預測。在資料分析之外,研究人員想要訓練人工智慧在多變的環境裡操作,第三種機器學習法就誕生了。

-----廣告,請繼續往下閱讀-----

增強式學習:需要理想的模擬情境與回饋機制

若用增強式學習,人工智慧就不是被動地識別資料間的關聯,而是在受控的環境裡具備「能動性」,觀察並記錄自己的行動會有什麼反應;通常這都是模擬的過程, 把複雜的真實世界給簡化了,在生產線上準確地模擬機器人比較容易,在擁擠的城市街道上模擬就困難得多了。

但即使是在模擬且簡化的環境裡,如西洋棋比賽,每一步都還是會引發一連串不同的機會與風險。因此,引導人工智慧在人造環境裡訓練自己,還不足以產生最佳表現,這訓練過程還需要回饋。

西洋棋比賽中的每一步會引發一連串機會與風險。圖/Pexels

提供反饋和獎勵,可以讓人工智慧知道這個方法成功了。沒有人類可以有效勝任這個角色:人工智慧因為在數位處理器上運作,所以可以在數小時或數日之內就訓練自己幾百次、幾千次或幾十億次,人類提供的回饋相比之下根本不切實際。

軟體工程師將這種回饋功能自動化,謹慎精確地說明這些功能要如何操作,以及這些功能的本質是要模擬現實。理想情況下,模擬器會提供擬真的環境,回饋功能則會讓人工智慧做出有效的決定。

-----廣告,請繼續往下閱讀-----

阿爾法元的模擬器就很簡單粗暴:對戰。阿爾法元為了評估自己的表現,運用獎勵功能,根據每一步創造的機會來評分。

增強式學習需要人類參與來創造人工智慧的訓練環境(儘管在訓練過程中不直接提供回饋):人類要定義模擬情境和回饋功能,人工智慧會在這基礎上自我訓練。為產生有意義的結果,謹慎明確地定義模擬情境和回饋功能至關重要。

——本文摘自《 AI 世代與我們的未來:人工智慧如何改變生活,甚至是世界?》,2022 年 12 月,聯經出版公司,未經同意請勿轉載。

-----廣告,請繼續往下閱讀-----
聯經出版_96
27 篇文章 ・ 20 位粉絲
聯經出版公司創立於1974年5月4日,是一個綜合性的出版公司,為聯合報系關係企業之一。 三十多年來已經累積了近六千餘種圖書, 範圍包括人文、社會科學、科技以及小說、藝術、傳記、商業、工具書、保健、旅遊、兒童讀物等。