0

0
0

文字

分享

0
0
0

我在國光高中燃燒地科魂

PanSci_96
・2013/04/22 ・643字 ・閱讀時間約 1 分鐘 ・SR值 449 ・四年級

國小高年級科普文,素養閱讀就從今天就開始!!

在教育部分享創新地科教學的謝隆欽老師

(PanSci Z編趕課前到教育部報導)

拿著模型繞著教室跑,只為了向學生解釋月亮的陰晴圓缺;起床後第一件事是上fb打卡報氣象,這就是任教於國光高中國中部的熱血地科老師謝隆欽。今天教育部舉辦國中活化教學列車第20場記者會,邀請謝隆欽老師分享他的創意教學法。

除了透過實作的科學展演,謝老師也利用許多應用程式(APP)還有影片,讓學生明白地球科學的原理,像是能顯示氣溫、濕度、風向、氣壓InstaWeather Pro,還有AR擴增實境的星相APP。

如此掌握最新科技並應用到教學上,都是因為一次被學生嘲笑的經驗。謝老師說:「我第一次到馬公教書,為了聯絡方便在黑板上留下自己的e-mail,還以為這樣很新奇,沒想到被學生問『老師,那MSN呢?』我不知道什麼是MSN,還去研究了一下。從此我就很積極學習新的科技。」

致力打破「課內/課外」框架的謝老師受到不少學生歡迎,但也有收過來自部分學生和家長的壓力。他說:「有些學生還是只想要學跟考試有關的內容,家長就會反應給教務處,希望我不要放太多影片。不過我都會盡量和他們解釋我的看法。我想創新的教學還需要一段時間跟更多的耐心。」

謝老師的數位教學:

如果你身旁也有熱血的自然科中學教師,也歡迎出賣推薦給PanSci認識喔!

文章難易度
PanSci_96
1006 篇文章 ・ 961 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

1
0

文字

分享

0
1
0
給你多少錢,才會願意放棄使用 FB ?社群軟體的體驗該如何被「金錢」衡量?──《資訊超載的幸福與詛咒》
天下文化_96
・2022/08/27 ・2405字 ・閱讀時間約 5 分鐘

使用社群媒體後,你變得更快樂還是更憂鬱?

想知道更多資訊的時候,你可能會上網搜尋。有時候是為了資訊的工具價值,比如透過 Google 地圖確認 A 地到 B地 的路線;腳踝扭傷時,也可以從網路上搜尋到應變的實用資訊;又或是並非真的出於任何用途,只覺得知道某些事很有趣,像是忽然想了解流行音樂歷史。你當然完全可以這樣做。

我們身邊有許多資訊都是一些抽象的概念,其中部分資訊卻可能和你切身相關。比如依據某些基本事實可以推斷你的預期壽命;某些資訊可以了解你的健康風險、未來「錢」景,甚至是個性。比起 10 年前,我們現在能得到的資訊更為詳盡正確,再過 10 年,肯定能夠知道得更多。

這章要談的內容很多,不妨開頭就先提示最大的重點:

研究顯示,整體而言,臉書會讓人變得比較不開心,而且可能感到憂鬱、更為焦慮,也對生活變得更不滿意。

你每天花多少時間使用 FB?使用社群軟體對你的心情造成了什麼影響?圖/Pixabay

我並不打算危言聳聽,事實上這些影響並不大。然而,它們的確存在。

而與此同時,有些人明明已經停用臉書、也感受到幸福感明顯增加,卻又非常想要重新打開臉書。實際上他們要求要得到一大筆錢才願意放棄臉書。這是為什麼?我們雖然無法確定,但一項合理的解釋是,使用臉書的體驗,包括帶來的資訊,並不會讓人變得更快樂,但還是有它的價值。

無知並不是幸福,而很多人都感受到這一點。人們需要知道自己在意的資訊,這是因為喜歡、甚至珍視一種和重要的人之間產生連結的感覺。

若須付費才能使用社群媒體,會怎樣?

重要的是,我們必須強調,社群媒體的功能不僅僅是提供資訊,至少不是我在這裡反覆強調的揭露資訊的意義。你會使用臉書,可能是為了和家人或朋友聯繫,也可能是為了改善荷包或健康。但無論如何,社群媒體的一大重點在於資訊傳遞,雖然這個概念要比我目前所談的更為廣泛。

而這裡的核心問題是:社群媒體究竟多值錢?

在社群媒體上,大部分的資訊是免費的,至少表面上你無須付費;或許可以說你仍需要付出注意力或個資等等。臉書和推特這些企業是從廣告獲得收益,但有鑑於相關爭議不斷,也有人認真討論起將這些平台及其服務的商業模式改成付費使用。

除此之外也有些偏理論的探討,主要關注在如何評估這些平台的經濟價值。要是民眾必須付費才能使用臉書,情況會變得如何?而民眾又願意花多少錢成為用戶?

要是社群媒體要付費的話,你們願意花多少錢呢?圖/LightFieldStudios

這些答案會透露出一些重要的資訊,讓我們知道社群媒體與一般資訊所擁有的價值。而回答這些問題,也有助於了解一些更基本的問題:如何計算經濟上的價值;知道某些消費決定可能只是表面工夫;了解傳統經濟指標與實際民眾福利有何差距(請見第二章)。此外,這些答案也會進一步影響政策與法規。

要你放棄使用 FB ,可能比要你付費使用來得更難?

行為經濟學特別感興趣的一個問題,就是「支付意願」和「願意接受金額」間可能出現的巨大落差。

以臉書為例,如果我們想知道它能為我們帶來多少福利,究竟該問民眾願意為此付出多少錢,抑或該問要給他們多少錢才會願意放棄使用臉書?許多研究都探討過稟賦效應(endowment effect)的現象,也就是被要求放棄某樣商品時所要求的價格,會遠高於他們當初獲得這些商品時支付的費用

稟賦效應目前還有爭議,至少在適用的領域、來源與程度上仍未有定論。我們可能會想知道,使用社群媒體願意付出的費用,是否大於不使用社群媒體所得到的費用?如果是的話,傳統論點又能否提出說明?

IKEA 所設置的家具體驗區,常常被拿來當作「稟賦效應」的案例。圖/Pixabay

另一個同樣常見、甚至是更基本的問題,則是涉及支付意願或願意接受金額的衡量與民眾福利。我在前面也提過,在經濟學中,要是談到民眾擁有某樣商品時的福利效果,往往是以民眾願意付出多少錢來使用那件商品作為衡量。

當然,「願意付出多少錢」也是現實市場的衡量標準。但請回想一下,要提出這項金額,事實上也就是做出預測:預測該商品會對自己的福利造成什麼樣的影響。

這個問題乍看不難,尤其當談到自己熟悉的商品(鞋子、襯衫、肥皂);但換做是從未使用過的商品,回答起來也就沒那麼簡單。對於一項從未擁有過的商品,哪知道能帶給自己多大的福利效果,以及可以換算成多少錢?

對許多人而言,臉書、推特、Instagram 等平台都是再熟悉不過的社群媒體,而且有著豐富的使用體驗。但出於某些我們馬上會討論到的原因,社群媒體用戶就是很難估算這些平台可以換算的金錢價值。

只要看看民眾提出使用社群媒體願意付出的金額,就會了解在尋求資訊上,「願意付出的金額」和民眾得到的福利效果似乎並不對等;同時值得進一步研究其中的福利效果究竟是什麼。

在這種時候,「願意付出的金額」只反映出部分的福利效果,還可能只反映一小部分。我們必須找出反映效果不佳的實際原因,並且嘗試找出更能呈現福利效果的方式。而我在這裡的目標,就是希望推進這項任務的進展。


——本文摘自《資訊超載的幸福與詛咒》,2022 年 8 月,天下文化 ,未經同意請勿轉載。

天下文化_96
107 篇文章 ・ 589 位粉絲
天下文化成立於1982年。一直堅持「傳播進步觀念,豐富閱讀世界」,已出版超過2,500種書籍,涵括財經企管、心理勵志、社會人文、科學文化、文學人生、健康生活、親子教養等領域。每一本書都帶給讀者知識、啟發、創意、以及實用的多重收穫,也持續引領台灣社會與國際重要管理潮流同步接軌。

1

3
2

文字

分享

1
3
2
Deepfake 不一定是問題,不知道才是大問題!關於 Deepfake,你需要知道的是⋯⋯?
TingWei
・2022/01/24 ・3489字 ・閱讀時間約 7 分鐘

編按:你的理智知道「眼見不為憑」,但你的眼睛還是會背叛你的理智,不自覺得被眼前的影像所吸引,儘管你真的、真的知道他是假的。Youtuber 小玉於2021年底涉嫌利用 Deepfake 技術,偽造多位名人的色情影音內容並販售的事件,既不是第一起、也不是唯一、更不會是最後一個利用「深偽技術」進行科技犯罪的事件。

當科技在走,社會和法律該如何跟上甚至超前部署呢?本次 Deepfake 專題,由泛科學和法律白話文合作,從Deepfake 技術與辨偽技術、到法律如何因應,讓我們一起全方位解析Deepfake!

第一篇,讓我們就 Deepfake 技術做一基礎的介紹,那我們就開始囉!

什麼是 Deepfake?

深偽技術 Deepfake 於 2017 年陸續開始進入大眾的目光中。原文 Deepfake 源自於英文「deep learning」(深度學習)和「fake」(偽造)組合,主要意指應用人工智慧深度學習的技術,合成某個(不一定存在的)人的圖像或影片、甚至聲音。最常見的應用,就是將影片中的人臉替換為另一張臉(常是名人),讓指定的臉在影片中做出自己從未說過或做過的事情。

利用深度學習技術合成或是置換人臉的技術,都是屬於Deepfake。圖 / stephenwolfram

現今談到 Deepfake,大多數人想到的可能是偽造的成人影片,就如前述 Youtuber 小玉的事件,Deepfake 一開始受到關注,主要與名人或明星的臉部影像被合成到成人影片有關,然而,Deepfake 的功能遠不僅於此,相關的技術使用還包括了替換表情、合成一整張臉、合成語音等等。

除了像是讓過去或現在的名人在影片中「栩栩如生」做出使用者想要的表情與動作,之前在社群媒體上曾有好幾款 APP一度風靡,包括上傳一張照片就可以看看「變老」「變性」自己的 FaceApp,甚至於讓自己的臉在經典電影中講上一段台詞的「去演」APP,這類的功能也是應用前述 Deepfake 的技術。

雖然有些線索顯示這類 APP 常有潛在的資安疑慮[註],但好歹技術的成果多屬搏君一燦自娛娛人,尚可視為無傷大雅。

「栩栩如生」的愛因斯坦

而過往電影的影音產業要仿造人臉需要應用許多複雜、耗時、昂貴的電腦模擬,有了 Deepfake 相關的技術,也使得許多只能抱憾放棄的事情出現了彌補的空間。最有名的應用應是好萊塢電影《玩命關頭7》與《星際大戰》系列。《玩命關頭7》拍攝期間主角保羅・沃克(Paul William Walker IV)意外身亡,剩下的戲份後來由弟弟擔綱演出,劇組再以 Deepfake 的技術讓哥哥弟弟連戲,整部電影才得以殺青上映。

Weta Digital 說明如何讓保羅・沃克的弟弟 Brian O’Conner 能透過 Deefake 的技術,繼續協助 保羅・沃克演完《玩命關頭7》

Deepfake 讓「變臉」變得太容易了?

想想過去的電影如《魔戒》中的咕嚕、或是 2008 年布萊德・彼特主演的《班傑明的奇幻旅程》,將影片或照片中人物「換臉」「變老」的修圖或 CG 技術,在 Deepfake 出世之前就已經存在了。Deepfake 受到關注的核心關鍵在於,應用 AI 的深度學習的演算法,加上越來越強大的電腦與手機運算能力,讓「影片換臉」這件事情變得越來越隨手可得、並且天衣無縫。

利用CG技術把布萊德・彼特「變老」。 圖 / © 2008 – Paramount Pictures

過往電影中採用的 CG 技術要花好幾個月由專業人士進行後製,才能取得難辨真偽的影像效果,而應用了 AI 演算法,只需要一台桌上型電腦甚或是手機,上網就可以取得軟體、有機會獲得差強人意的結果了。

進一步,傳統軟體演算法主要依靠工程師的持續修改調整,而如 Deepfake 這類技術,內部的演算法會經過訓練持續進化。有許多技術被應用於提高 Deepfake 的偽造效果,其中最常見的一個作法被稱為「生成對抗網路(Generative Adversarial Network, GAN)」,這裡面包含了兩組神經網路「生成器(Generator)」和「辨識器(Discriminator)」。

在投入訓練資料之後,這兩組神經網路會相互學習訓練,有點像是坐在主人頭上的小天使與小惡魔會互相吐槽、口才越來越好、想出更好的點子;在練習的過程中,「生成器」會持續生成偽造的影像,而「辨識器」則負責評分,反覆訓練下來,偽造生成的技術進步,辨識偽造的技術也得以進步。

舉例來說,This Person Does Not Exist 這個網站就充滿了使用 GAN 架構建構的人臉,這個網站中的人臉看上去非常真實,實際上都是 AI 製造出來的「假臉」。

This Person Does Not Exist 裡的「假臉」。

Deepfake 影片不一定是問題,不知道是 Deepfake 才是問題

現今的 Deepfake 技術得以持續進步、騙過人眼是許多人努力的成果,也不見得都是壞事。像是《星際大戰:俠盜一號》片尾,年輕的萊婭公主出面驚鴻一瞥,就帶給許多老粉絲驚喜。這項技術應用癥結在於,相關演算法輕易就能取得,除了讓有心人可以藉以產製色情影片(這類影片佔了Deepfake濫用的半數以上),Deepfake 製造的影片在人們不知情的情況下,很有可能成為虛假訊息的載體、心理戰的武器,甚至於影響選戰與輿情。

因此,Deepfake 弄假似真不是問題,閱聽者因此「不辨真假」才將是最大的問題所在。

歐巴馬的 Deepfake 影片

相關的研究人員歸納了幾個這類「變臉」影片常見的特徵,可以用來初步辨識眼前的影片是不是偽造的。

首先,由於 AI 尚無法非常細緻的處理一些動作細節,因此其眨眼、視線變化或臉部抽蓄的動作會較不自然。其次,通常在邊緣處,如髮絲、臉的邊緣線、耳環等區域會出現不連貫的狀況。最後,在一些結構細節會出現不合理的陰影瑕疵,像是嘴角的角度位置等。

由於現階段的 Deepfake 通常需要大量的訓練資料(影像或影片)才能達到理想的偽造成果,因此會遭到「換臉」的受害者,主要集中在影像資源豐富的名人,如電影明星、Youtuber、政治人物等。需要注意的是,如果有人意圖使用 Deepfake 技術製造假消息,其所製造的影片不見得需要非常完美,有可能反而降低解析度、非常粗糙,一般人如用手機瀏覽往往難辨真假。

人眼已經難辨真假,那麼以子之矛攻彼之盾,以 AI 技術辨識找出 Deepfake 的成品,有沒有機會呢?隨著 Deepfake 逐漸成為熱門的議題,有許多團隊也開始試圖藉由深度學習技術,辨識偽造影像。2020 年臉書與微軟開始舉辦的「換臉偵測大賽」(Deepfake Detection Challenge)就提供高額獎金,徵求能夠辨識造假影片的技術。然而成果只能說是差強人意,面對從未接觸過的影片,第一名辨識的準確率僅為 65.18%。

「換臉偵測大賽」(Deepfake Detection Challenge)的辨識素材。圖/MetaAi

對於 Deepfake 可能遭到的濫用,某部分我們可以寄望技術的發展未來終將「道高一尺」,讓社群平台上的影像不致於毫無遮攔、照單全收;然而技術持續「魔高一丈」讓防範的科技追著跑,也是顯而易見的。

社群網路 FB 在 2020 年宣布全面禁止 Deepfake 產生的影片,一旦有確認者立即刪除,twitter 則強制註記影片為造假影片。Deepfake 僅僅是未來面對 AI 浪潮,科技社會所需要應對的其中一項議題,法律、社會規範如何跟上?如何解決箇中的著作權與倫理問題?這些都將是需要經過層層討論與驗證的重要課題。

至少大家應該心知肚明,過往的網路流行語:「有圖有真相」已經過去,接下來即將面臨的,是一個「有影片也難有真相」的網路世界了。

  • 註解:推出 FaceApp 與「去演」的兩家公司其軟體皆要求註冊,且對於上傳資料之後續處理交代不清,被認為有侵犯使用者隱私權之疑慮。

參考資料

  1. Deepfakes and the New AI-Generated Fake Media Creation-Detection Arms Race – Scientific American
  2. What To Do About Deepfakes | March 2021 | Communications of the ACM
  3. Tolosana, R., Vera-Rodriguez, R., Fierrez, J., Morales, A., & Ortega-Garcia, J. (2020). Deepfakes and beyond: A survey of face manipulation and fake detection. Information Fusion, 64, 131-148.
  4. Deepfake 深偽技術的技術濫用與道德困境,大眾正要開始面對 | TechNews 科技新報
  5. 台灣團隊研究辨識Deep Fake影片 深偽技術的正邪之戰開打 | 台灣事實查核中心 (tfc-taiwan.org.tw)

所有討論 1
TingWei
13 篇文章 ・ 10 位粉絲
據說一生科科的生科中人,不務正業嗜好以書櫃堆滿房間,努力養活雙貓為近期的主要人生目標。

5

7
0

文字

分享

5
7
0
當 AI 的「深度學習」形成偏見,法規該如何遏止傷害?
科學月刊_96
・2022/01/03 ・3732字 ・閱讀時間約 7 分鐘

國小高年級科普文,素養閱讀就從今天就開始!!

  • 文/廖英凱|非典型的不務正業者、興致使然地從事科普工作、科學教育與科技政策研究。對資訊與真相有詭異的渴望與執著,夢想能做出鋼鐵人或心理史學。

Take Home Message

  • AI 雖然能協助遏止違法或侵權的言論,但一般大眾卻無法得知其評斷的機制,已於無形中造成傷害。
  • AI 的資料庫誤差,將造成演算法對文化或族群產生偏見等;而深度學習的演算法因處理龐大的資料,常使研究者或運用 AI 的機構無法理解與回溯 AI 的決策原因。
  • 歐盟、美國、聯合國等組織已相繼研擬 AI 的規範與監管方式。
  • 臺灣仍須再制定 AI 相關的監管辦法,以因應科技的發展及變遷。

「你今天被祖了嗎?」

眾所皆知目前社群網路最大的平台臉書(Facebook),為遏阻違法或侵權的言論,會判定某些言論違反其「社群守則」而隱藏。不可否認,違法與侵權言論在社群網路上造成了嚴重的傷害,不過有時候這些隱文的原則,似乎與政治或特定議題有關。時不時也有朋友提到,一則再平凡不過的貼文或照片,卻莫名其妙地被宣告違反社群守則。於是乎在去(2021)年時,網友們開始把臉書創辦人祖克柏(Mark Zuckerber)的姓氏,變成了諷刺臉書封鎖文章標準混亂的話梗:你被「祖」了嗎?

想當然爾如臉書等社群媒體,是仰賴著演算法自動判斷一則貼文是否違規。除了針對文字與圖片的內容分析以外,其他例如被檢舉的數量、帳號的活躍程度、帳號的發文模式、商業價值等,都成為演算法評估一則貼文是否違規的依據,彷彿法官在定罪犯人時不只依據犯罪行為,也會權衡犯人及其社會狀態一樣。然而,我們看得到法官的決策過程與理由,但卻從來沒有機會搞清楚,到底演算法發生了什麼事情,才會宣告一則平凡的貼文違規。

雖然大家平常遇到這種貼文被刪的情況,通常也就是重新打篇文章貼個圖發發牢騷,就這麼過去了。但這個時不時可見的神祕隱文事件,其實就是我們生活中,人工智慧(artificial intelligence, AI)已經持續帶來隱性傷害的頻繁案例。

AI 的傷害跟以往想像的不一樣

自工業革命以降,人類其實蠻迅速地就提出對科技發展副作用的深層反思。例如人類史上第一部科幻作品,1818 年由英國作家雪萊(Mary Shelley)所著作的《科學怪人》(Frankenstein),即是以一個具有擬人思維的人造生命為主角的科幻驚悚作品。伴隨著機器的發展,1956 年達特矛斯會議(Dartmouth Summer Research Project on Artificial Intelligence)上,與會專家提出「artificial intelligence」一詞,認為機器的發展將可像人一般具有學習、理解、適應的能力。

隨著 AI 技術上的演進,人們對 AI 的樂觀與悲觀態度,也愈發分歧。對於 AI 發展所帶來社會的影響,依其態度可以分為:對科技抱持樂觀者,相信「強 AI」的問世可以使電腦與人有相同甚至超越人類的思考能力,並為人類解決大部分問題,帶來更理想的明天,在電影動畫等作品中不乏這類理想的人工智慧角色;重視科技實用者,傾向認為 AI 是以輔助人類的角色,解放人類的勞力工作而能開創更多科技應用的可能;重視科技發展脈絡者,則認為 AI 只是科技發展中的一個流行詞(buzzword),只有尚在發展中,尚未充分掌握的技術才會被視為 AI。與科技領域相對,在人文社會領域中則較常出現對 AI 發展的反思,例如研究 AI 對人類勞力取代後所創造的弱勢衝擊;或更甚者認為強 AI 的不受控發展,將會導致人類文明的毀滅。這些不同立場的觀點,均揭示了人類看待 AI 對社會影響的多元與矛盾預測。

儘管當代影視作品和學術研究,都對 AI 會造成什麼樣的傷害有興趣,但 AI 帶來的傷害早已出現多年而默默影響著人類社會。2018 年在《自然》(Nature)期刊上的一則評論,介紹了一張身披白紗的歐美傳統新娘和印度傳統新娘的組圖,而演算法在看待兩張新娘照片時,會將前者判斷為「新娘」、「洋裝」、「女人」、「婚禮」等,但將後者判斷為「表演」和「戲服」。在這個案例中,AI 或演算法設計本身其實並沒有獨鍾哪一種文化,但因為演算法的訓練來自於既有圖庫,而圖庫中的圖片來源和圖片的詮釋註記,與真實世界的樣貌出現落差,使人工智慧就如真人一般,憑藉著片面不完整的學習資料,產生了對族群與文化的偏見(偏誤),而演算法可能更無法自覺與反思自我產生的偏見(圖一)。

(圖一)由於 AI 只憑藉片面且不完整的資料進行學習,以婚紗為例,AI 只能辨識出傳統歐美的婚紗裝扮(左),卻難以辨識出不同文化的婚紗樣貌,例如印度傳統服飾(右)。(123RF)

除了資料庫的誤差而導致演算法對文化或族群的偏見以外,「深度學習」(deep learning)的演算法因處理龐大的訓練資料、分析資料,也常使研究者或使用 AI 服務的機構,無法理解與回溯 AI 決策的具體原因。例如亞馬遜公司(Amazon.com, Inc.)仰賴演算法全自動判斷大量受僱員工的工作狀態,並以此決定他們的績效與裁員與否。儘管這種做法能大幅縮減決策時間,並減少人資成本,但也因此發生數起亞馬遜員工因系統過失而被降低績效,或是員工績效良好卻被無故裁員,更申訴無門的矛盾事件。這與將 AI 應用於人資的初衷似乎有點相悖,演算法或許可以避免人為決策時,因涉及個人喜惡偏好而作出不公允的判斷,但卻也造成了另一種不公允也無從理解緣由的傷害。

誰來規範 AI?

既然 AI 的傷害已然出現,自然也應有對 AI 的監管與規範機制。例如歐盟執委會(European Commission)在 2019 年 4 月公布「值得信賴的人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI),強調人工智慧應為輔助角色,尊重人類自主、避免傷害、維護公平、具有可解釋性,且能受到監管並回溯決策過程,以避免演算法的黑箱決策,作為歐盟成員國在訂定 AI 相關規範的上位依據。2019 年 5 月,經濟合作暨發展組織(Organisation for Economic Cooperation and Development, OECD),提出 AI 發展的原則應有永續精神以造福人類與地球,能尊重民主與法治、人權與多元性,兼顧透明度、課責機制等原則。美國白宮科技辦公室在 2020 年 1 月發布的「人工智慧應用的管制指引」(Guidance for Regulation of Artificial Intelligence Application),也強調衡量風險避免傷害、公平無歧視、透明度、重視科學實證、立法過程應兼顧公共參與等,作為美國政府各機關在訂定與人工智慧相關規範的指導原則。聯合國教科文組織(United Nations Educational Scientific and Cultural Organization, UNESCO)則在去年 11 月,發布《人工智慧倫理建議書》草案(Draft text of the recommendation on the ethics of artificial intelligence),作為會員國訂定 AI 相關法律與政策時,可依循的通用價值觀、原則和行動框架。

國際上重要的原則指引,也同等地體現在民意對 AI 治理的期待,臺灣師範大學教授李思賢、劉湘瑤、張瓅勻等人針對臺灣 1200 位民眾的調查發現,臺灣民眾對 AI 的應用最在意的是避免傷害,其次則是透明度與公平性,相對最不在意的是隱私。調查亦發現民眾明確偏好以公民審議和立法機關來制定嚴格傾向的規範,這反映了民眾對新興科技的擔憂與對透明治理的期待,也呼應了國際組織的指引方向(圖二)。

(圖二)AI 規範制定權則偏好。李思賢教授等人,調查國人對 AI 規範制定的偏好。發現國人無論對 AI 發展持保守態度或開放態度,均傾向以公民審議和立法機構來制定規範。

然而,國際上的重要指引與民調結果,卻也讓我國在相關規範的設計上略顯矛盾。例如調查研究顯示,雖然民眾最期待以「公民審議」和「立法機構」來訂定 AI 相關規範,但現今國內外相關規範的研擬與討論,仍是以由產官學組成的研究與應用社群為主,例如科技部自 2017 年起,開展多場 AI 倫理議題的研究計畫與論壇工作坊等,並於 2019 年 9 月提出《人工智慧科研發展指引》,明訂 AI 科研的核心價值與指引,使科研人員在學術自由與創新發展的同時,也能兼顧 AI 發展的方向。

但科技部並非產業的主責機關,所訂定的指引僅能提供科研人員更好的方向,對已產生傷害的業界應用仍然鞭長莫及。儘管 2018 年 11 月立法院曾通過初具 AI 倫理精神的《無人載具創新實驗條例》;2019 年 5 月,時任立法委員許毓仁等人也提出《人工智慧發展基本法》修法草案,作為政府兼顧人工智慧產業發展和倫理規範的法律基礎,但該草案的相關修法討論並未被積極延續,作為國家更上位看待 AI 發展的治理框架,於立法體制和公民審議機制中均尚未開展高強度的討論。

AI 對今日生活的便利已無遠弗屆,而 AI 所帶來的傷害,雖微小、難以察覺,但也已經出現,對應的倫理指引與規範在國際也蔚成趨勢,但臺灣仍在牛步,或許國家在看待 AI 發展時,必須開始將這些規範視為迫切的基礎建設。

如同歷史上所有科技進展一般,科技帶來的進步與災變往往是隱性與持續的,直到人們已慣於新興科技的進步,發現科技的受害者已經出現,才驚覺世界已經完全改觀。

延伸閱讀

  1. James Zou and Londa Schiebinger, AI can be sexist and racist — it’s time to make it fair, Nature, Vol.559, 324-326, 2018.
  2. 人工智慧之相關法規國際發展趨勢與因應,https://www.ndc.gov.tw/nc_1871_31998
  3. 《人工智慧發展基本法》草案,https://pse.is/3w9rrf
  • 〈本文選自《科學月刊》2022 年 1 月號〉
  • 科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。
所有討論 5
科學月刊_96
229 篇文章 ・ 2082 位粉絲
非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。