網站更新隱私權聲明
本網站使用 cookie 及其他相關技術分析以確保使用者獲得最佳體驗,通過我們的網站,您確認並同意本網站的隱私權政策更新,了解最新隱私權政策

0

0
0

文字

分享

0
0
0

在「丟臉丟到國外去了」以後…

葉綠舒
・2014/07/11 ・1670字 ・閱讀時間約 3 分鐘 ・SR值 448 ・四年級

這兩天學界的大新聞應該就是一位屏教大的老師論文造假的新聞。

其實論文造假時有所聞,但是這位屏教大的老師他在過去四年涉嫌造假60篇論文,同時也幫自己在專業學會上假冒了幾個研究者的身份,用這些假身份幫自己審論文,直到被Journal of Vibration and Control(JVC,震動與控制期刊)發現為止。

由於這件事情實在太驚人了(60篇,筆者覺得用掰的也要掰很久吧),因此也上了「科學」期刊的網站(請見Lax reviewing practice prompts 60 retractions at SAGE journal,2014/7/10),筆者也聽到很多人說「真是的,丟臉丟到國外去了」。

當然,60篇這是空前的(據說過去最高紀錄是南韓的35篇),但是除了撻伐造假者之外,是否也要想想如何改善老師們的工作環境,以及讓「研究倫理」這門課程更有效呢?

最近的一篇文章[1]提到,一位老師進行「研究倫理」課程時,他請學生去看很多線上的倫理課程,並提供意見。許多學生推薦研究倫理協會(Office of Research Integrity)的互動影片’The Lab‘。在這部影片中,觀看者可以由研究生、博士後、研究員或是研究倫理委員會成員這四個角色中挑選一個扮演,在發現實驗室的同仁做了違反研究倫理的事情後,你的角色要怎麼辦?

Laboratorium-biologia-molekularna
From wiki

學生除了提到這個影片很有意思以外,他們也提出了一個意見:是否可以讓觀看者選擇成為事件的「主角」– 也就是當「壞人」?

為什麼影片沒有這樣的設定呢,應該有以下的幾個原因:

一、如果觀看者在「利字當頭」時,選擇不去作「壞人」,那麼活動就結束了。
二、如果觀看者在鑄下大錯以後立刻翻然悔悟,那麼活動也很快就結束了。

但是,可能有更多的原因是,當初設計這個互動課程的人,希望所有來觀看這個影片的人都要是「好人」,都不會想到要去當「壞人」;但是這個社會原本就是由許多普通人構成的,我們雖然從小都受過教育,但是教育只能教我們「作壞事是不好的」,卻沒辦法教我們,當周圍的壓力大到讓我們覺得,不作這件(壞)事可能就會讓你在工作上被排擠、甚至被消滅的時候,我們要怎麼辦?當對方給你的金錢的利益多到你無法想像的時候,我們又該怎麼辦?當做(壞)事可以讓你得到一輩子都賺不到的那麼多的錢,而不做(壞)事卻可能讓你丟了工作的時候,這個選擇,又該怎麼做?

對一個局外人來說,要說「壞事做不得啊」是很容易的事;要說「你是壞人」也很容易。但是,如果能有機會把自己放在這個情境,了解「壞人」其實也是普通人,只是壓力(有研究生、博士後要養,有「N年條款」在後面…)讓他在關鍵時刻選擇了錯誤的方向,這樣可以讓大家了解到整個研究大環境的問題,也可以讓大家一起改善研究環境,使造假的人減少。

當然,一定會有衛道者說,這樣會引誘別人來當壞人。其實他們是多慮了。了解「壞人」的想法,會讓我們更了解這個社會。畢竟,大家都是普通人,我們都會在有機會時偷偷闖紅燈、也會在超市挑選牛奶時找期限最遠的(明明所有的都還沒過期)、也會為了點心去參加一點都不想聽的研究討論會。當然這些都是小問題,那是因為我們沒有受到壓力(但是受到引誘)。

當引誘大到如上面提到的:

可能「一輩子都賺不了那麼多錢」的時候;
有家要養,可是卻快要被不續聘的時候;
有研究生、博士後要養,可是實驗室快要斷炊的時候;
這三種情形同時發生兩種的時候;
這三種情形一起發生的時候;

這時候,有多少人能保證,自己還可以繼續100%誠實呢?影片的角色扮演,可以幫助我們體驗「壞人」的感受,除了讓我們在未來遇到類似的情境時,能作出正確的選擇之外;其實也能讓大家一起來想想:要怎麼讓工作環境更友善?

除了一小部份天生就想要作壞事的人以外,筆者也相信我們都是好人,只是,我們也都是普通人。品德教育其實很難由課堂口授來達成,而是需要「見景生情」– 在適當的時刻進行教育。但是,人生很多關鍵時刻是沒有老師在旁邊的;或許在互動課程中扮演「壞人」,體驗一下「壞人」的想法,進一步了解「歹路不可行」,也是一個不錯的想法不是嗎?

 

原刊載於作者部落格Miscellaneous999

參考文獻:

  1. Janet D. Stemwedel 2014/7/9. On the value of empathy, not othering.

相關標籤: 研究倫理 造假
文章難易度
葉綠舒
262 篇文章 ・ 6 位粉絲
做人一定要讀書(主動學習),將來才會有出息。


5

7
0

文字

分享

5
7
0

當 AI 的「深度學習」形成偏見,法規該如何遏止傷害?

科學月刊_96
・2022/01/03 ・3732字 ・閱讀時間約 7 分鐘
  • 文/廖英凱|非典型的不務正業者、興致使然地從事科普工作、科學教育與科技政策研究。對資訊與真相有詭異的渴望與執著,夢想能做出鋼鐵人或心理史學。

Take Home Message

  • AI 雖然能協助遏止違法或侵權的言論,但一般大眾卻無法得知其評斷的機制,已於無形中造成傷害。
  • AI 的資料庫誤差,將造成演算法對文化或族群產生偏見等;而深度學習的演算法因處理龐大的資料,常使研究者或運用 AI 的機構無法理解與回溯 AI 的決策原因。
  • 歐盟、美國、聯合國等組織已相繼研擬 AI 的規範與監管方式。
  • 臺灣仍須再制定 AI 相關的監管辦法,以因應科技的發展及變遷。

「你今天被祖了嗎?」

眾所皆知目前社群網路最大的平台臉書(Facebook),為遏阻違法或侵權的言論,會判定某些言論違反其「社群守則」而隱藏。不可否認,違法與侵權言論在社群網路上造成了嚴重的傷害,不過有時候這些隱文的原則,似乎與政治或特定議題有關。時不時也有朋友提到,一則再平凡不過的貼文或照片,卻莫名其妙地被宣告違反社群守則。於是乎在去(2021)年時,網友們開始把臉書創辦人祖克柏(Mark Zuckerber)的姓氏,變成了諷刺臉書封鎖文章標準混亂的話梗:你被「祖」了嗎?

想當然爾如臉書等社群媒體,是仰賴著演算法自動判斷一則貼文是否違規。除了針對文字與圖片的內容分析以外,其他例如被檢舉的數量、帳號的活躍程度、帳號的發文模式、商業價值等,都成為演算法評估一則貼文是否違規的依據,彷彿法官在定罪犯人時不只依據犯罪行為,也會權衡犯人及其社會狀態一樣。然而,我們看得到法官的決策過程與理由,但卻從來沒有機會搞清楚,到底演算法發生了什麼事情,才會宣告一則平凡的貼文違規。

雖然大家平常遇到這種貼文被刪的情況,通常也就是重新打篇文章貼個圖發發牢騷,就這麼過去了。但這個時不時可見的神祕隱文事件,其實就是我們生活中,人工智慧(artificial intelligence, AI)已經持續帶來隱性傷害的頻繁案例。

AI 的傷害跟以往想像的不一樣

自工業革命以降,人類其實蠻迅速地就提出對科技發展副作用的深層反思。例如人類史上第一部科幻作品,1818 年由英國作家雪萊(Mary Shelley)所著作的《科學怪人》(Frankenstein),即是以一個具有擬人思維的人造生命為主角的科幻驚悚作品。伴隨著機器的發展,1956 年達特矛斯會議(Dartmouth Summer Research Project on Artificial Intelligence)上,與會專家提出「artificial intelligence」一詞,認為機器的發展將可像人一般具有學習、理解、適應的能力。

隨著 AI 技術上的演進,人們對 AI 的樂觀與悲觀態度,也愈發分歧。對於 AI 發展所帶來社會的影響,依其態度可以分為:對科技抱持樂觀者,相信「強 AI」的問世可以使電腦與人有相同甚至超越人類的思考能力,並為人類解決大部分問題,帶來更理想的明天,在電影動畫等作品中不乏這類理想的人工智慧角色;重視科技實用者,傾向認為 AI 是以輔助人類的角色,解放人類的勞力工作而能開創更多科技應用的可能;重視科技發展脈絡者,則認為 AI 只是科技發展中的一個流行詞(buzzword),只有尚在發展中,尚未充分掌握的技術才會被視為 AI。與科技領域相對,在人文社會領域中則較常出現對 AI 發展的反思,例如研究 AI 對人類勞力取代後所創造的弱勢衝擊;或更甚者認為強 AI 的不受控發展,將會導致人類文明的毀滅。這些不同立場的觀點,均揭示了人類看待 AI 對社會影響的多元與矛盾預測。

儘管當代影視作品和學術研究,都對 AI 會造成什麼樣的傷害有興趣,但 AI 帶來的傷害早已出現多年而默默影響著人類社會。2018 年在《自然》(Nature)期刊上的一則評論,介紹了一張身披白紗的歐美傳統新娘和印度傳統新娘的組圖,而演算法在看待兩張新娘照片時,會將前者判斷為「新娘」、「洋裝」、「女人」、「婚禮」等,但將後者判斷為「表演」和「戲服」。在這個案例中,AI 或演算法設計本身其實並沒有獨鍾哪一種文化,但因為演算法的訓練來自於既有圖庫,而圖庫中的圖片來源和圖片的詮釋註記,與真實世界的樣貌出現落差,使人工智慧就如真人一般,憑藉著片面不完整的學習資料,產生了對族群與文化的偏見(偏誤),而演算法可能更無法自覺與反思自我產生的偏見(圖一)。

(圖一)由於 AI 只憑藉片面且不完整的資料進行學習,以婚紗為例,AI 只能辨識出傳統歐美的婚紗裝扮(左),卻難以辨識出不同文化的婚紗樣貌,例如印度傳統服飾(右)。(123RF)

除了資料庫的誤差而導致演算法對文化或族群的偏見以外,「深度學習」(deep learning)的演算法因處理龐大的訓練資料、分析資料,也常使研究者或使用 AI 服務的機構,無法理解與回溯 AI 決策的具體原因。例如亞馬遜公司(Amazon.com, Inc.)仰賴演算法全自動判斷大量受僱員工的工作狀態,並以此決定他們的績效與裁員與否。儘管這種做法能大幅縮減決策時間,並減少人資成本,但也因此發生數起亞馬遜員工因系統過失而被降低績效,或是員工績效良好卻被無故裁員,更申訴無門的矛盾事件。這與將 AI 應用於人資的初衷似乎有點相悖,演算法或許可以避免人為決策時,因涉及個人喜惡偏好而作出不公允的判斷,但卻也造成了另一種不公允也無從理解緣由的傷害。

誰來規範 AI?

既然 AI 的傷害已然出現,自然也應有對 AI 的監管與規範機制。例如歐盟執委會(European Commission)在 2019 年 4 月公布「值得信賴的人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI),強調人工智慧應為輔助角色,尊重人類自主、避免傷害、維護公平、具有可解釋性,且能受到監管並回溯決策過程,以避免演算法的黑箱決策,作為歐盟成員國在訂定 AI 相關規範的上位依據。2019 年 5 月,經濟合作暨發展組織(Organisation for Economic Cooperation and Development, OECD),提出 AI 發展的原則應有永續精神以造福人類與地球,能尊重民主與法治、人權與多元性,兼顧透明度、課責機制等原則。美國白宮科技辦公室在 2020 年 1 月發布的「人工智慧應用的管制指引」(Guidance for Regulation of Artificial Intelligence Application),也強調衡量風險避免傷害、公平無歧視、透明度、重視科學實證、立法過程應兼顧公共參與等,作為美國政府各機關在訂定與人工智慧相關規範的指導原則。聯合國教科文組織(United Nations Educational Scientific and Cultural Organization, UNESCO)則在去年 11 月,發布《人工智慧倫理建議書》草案(Draft text of the recommendation on the ethics of artificial intelligence),作為會員國訂定 AI 相關法律與政策時,可依循的通用價值觀、原則和行動框架。

國際上重要的原則指引,也同等地體現在民意對 AI 治理的期待,臺灣師範大學教授李思賢、劉湘瑤、張瓅勻等人針對臺灣 1200 位民眾的調查發現,臺灣民眾對 AI 的應用最在意的是避免傷害,其次則是透明度與公平性,相對最不在意的是隱私。調查亦發現民眾明確偏好以公民審議和立法機關來制定嚴格傾向的規範,這反映了民眾對新興科技的擔憂與對透明治理的期待,也呼應了國際組織的指引方向(圖二)。

(圖二)AI 規範制定權則偏好。李思賢教授等人,調查國人對 AI 規範制定的偏好。發現國人無論對 AI 發展持保守態度或開放態度,均傾向以公民審議和立法機構來制定規範。

然而,國際上的重要指引與民調結果,卻也讓我國在相關規範的設計上略顯矛盾。例如調查研究顯示,雖然民眾最期待以「公民審議」和「立法機構」來訂定 AI 相關規範,但現今國內外相關規範的研擬與討論,仍是以由產官學組成的研究與應用社群為主,例如科技部自 2017 年起,開展多場 AI 倫理議題的研究計畫與論壇工作坊等,並於 2019 年 9 月提出《人工智慧科研發展指引》,明訂 AI 科研的核心價值與指引,使科研人員在學術自由與創新發展的同時,也能兼顧 AI 發展的方向。

但科技部並非產業的主責機關,所訂定的指引僅能提供科研人員更好的方向,對已產生傷害的業界應用仍然鞭長莫及。儘管 2018 年 11 月立法院曾通過初具 AI 倫理精神的《無人載具創新實驗條例》;2019 年 5 月,時任立法委員許毓仁等人也提出《人工智慧發展基本法》修法草案,作為政府兼顧人工智慧產業發展和倫理規範的法律基礎,但該草案的相關修法討論並未被積極延續,作為國家更上位看待 AI 發展的治理框架,於立法體制和公民審議機制中均尚未開展高強度的討論。

AI 對今日生活的便利已無遠弗屆,而 AI 所帶來的傷害,雖微小、難以察覺,但也已經出現,對應的倫理指引與規範在國際也蔚成趨勢,但臺灣仍在牛步,或許國家在看待 AI 發展時,必須開始將這些規範視為迫切的基礎建設。

如同歷史上所有科技進展一般,科技帶來的進步與災變往往是隱性與持續的,直到人們已慣於新興科技的進步,發現科技的受害者已經出現,才驚覺世界已經完全改觀。

延伸閱讀

  1. James Zou and Londa Schiebinger, AI can be sexist and racist — it’s time to make it fair, Nature, Vol.559, 324-326, 2018.
  2. 人工智慧之相關法規國際發展趨勢與因應,https://www.ndc.gov.tw/nc_1871_31998
  3. 《人工智慧發展基本法》草案,https://pse.is/3w9rrf
  • 〈本文選自《科學月刊》2022 年 1 月號〉
  • 科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。

所有討論 5
科學月刊_96
2 篇文章 ・ 2 位粉絲
非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。