3

31
3

文字

分享

3
31
3

是誰教機器人性別歧視?人工智慧複製人類偏見——高醫大性別所余貞誼專訪

科技大觀園_96
・2021/03/03 ・4566字 ・閱讀時間約 9 分鐘 ・SR值 605 ・十年級

-----廣告,請繼續往下閱讀-----

科技始終來自於人性,人工智慧更是如此。此時此刻,人類社會中仍隱藏許多不平等與歧視,人工智慧與這些議題將如何互動?透過社群媒體可以如何解讀性別議題?任教於高雄醫學大學性別研究所的余貞誼助理教授,研究專長包括性別社會學、資訊科技與社會。她關注的重點之一,便是科技應用對社會溝通的影響

2018 年,亞馬遜宣布停止使用 AI (artificial intelligence) 篩選求職履歷,因為從招聘結果看來,這個 AI 居然嚴重的偏好男性

一個好好的 AI,哪裡學來性別歧視的壞毛病?從人身上阿。(設計對白)圖/Pixabay

2006 年機器學習演算法 (machine-learning algorithm) 突破瓶頸,讓人工智慧在某些情況,足以模擬人類的判斷,提供資訊解讀加速作業流程,如影像診斷、關鍵字判讀、資訊推薦、外文翻譯等。此外亦常見以演算法處理排序、挑選內容、過濾資訊等工作,經手人們的決策與信息流通。但快速便捷的同時,多數人不假思索信賴的演算法,也可能會反映強化已經存在的價值偏差,甚至夾帶嚴重的歧視偏見

如同開頭的案例,2018 年亞馬遜的 AI 演算法以過去十年間招聘資料進行訓練,最終演算法「忠實」呈現了招聘男女不平均,由於難以確保該演算法對於性別的公平性,亞馬遜只得棄用。1也有資料學家指出,許多商用的臉孔辨識系統擅長辨識白人男性,換個性別膚色就會失靈。2這些偏差的起因,都與訓練資料的取樣偏誤有關。如何在導入應用之前,發覺演算法失靈以避免可能的不公,將是未來科技社會發展的重要課題。3

用上人工智慧之前:用在哪?該怎麼用?

而除了前述源自訓練資料造成的不公,如人工智慧這類科技工具該用在何處,該如何設計才能稱得上妥適,也存在探討的空間。

-----廣告,請繼續往下閱讀-----
余貞誼認為,人臉辨識科技應用的解讀魔鬼藏在細節裡,需要深刻探究背後的執行與設計邏輯。圖/曹盛威攝

最新的一個爭議案例,發生在印度北方邦的首府勒克瑙 (Lucknow)。當地政府規劃於今 (2021) 年在已知的 200 個性騷擾熱點設立監視錄影器,佈署 AI 人臉辨識進行監看,偵測女性出現困擾表情,即傳送警報予警察局。4

「第一個顧慮的點,是要如何辨認什麼是被性騷擾後不適或是驚恐的表情?」

余貞誼認為,這類科技應用的解讀魔鬼藏在細節裡,需要深刻探究背後的執行與設計邏輯。

印度率先於各國考慮採用 AI 於性騷擾事件,背景脈絡與其 AI 人才的發展息息相關。成功前例便有 2018 年 4 月印度警方使用臉部辨識軟體,根據婦女和兒童發展部 (The Ministry of Women and Child Development) 與失蹤兒童追蹤網站 (Track Child) 提供的照片,在四天之內追蹤到將近 3000 名失蹤兒童的紀錄。5爾後也傳出意圖打造全球最大的臉部辨識系統於刑事系統中,因此有此應用構想確實有跡可循。

但是此次應用人臉辨識系統於警方的監視錄影機,很多執行細節並未審慎考量。非政府組織網路自由基金會 (Internet Freedom Foundation) 就指出,監看臉部表情並不妥當,除了極可能失誤判斷,也形同監視路過女性的一舉一動。

-----廣告,請繼續往下閱讀-----

余貞誼分析,透過官方演算法篩選「受威脅」的女性表情,等同認定這類的事件存在固定的「被害者」形象,除了疏於保護「不夠典型」的受害者,也可能變相為另一種受害人責怪的材料,強化助長「理想受害者」的形象

「用這樣子的方法,會帶來的爭議比解決的問題還要多。」余貞誼指出,公權力錯誤的使用,視同將此演算法所得的結果視為「證據」,有可能導致惡性循環迴圈 (pernicious feedback loop),從出發點即隱含了歧視觀點,並持續強化歧視觀念。政府單位使用演算法需要審慎評估其後果。

官方演算法篩選「受威脅」的女性表情,除了疏於保護「不夠典型」的受害者,也可能強化「理想受害者」的刻板印象。圖/Pexels

印度本次的爭議中,選擇攝影機「看向誰」本身,就已經體現了權力立場,無論是偵測哪個性別,如此的設計都存在著嚴重瑕疵。而更多的問題還包括:這類公權力涉入的演算法,被觀看、紀錄、分析的人本身,其隱私資料是否有受到足夠的哪些保護?有哪些人可以接觸到資料?收集的資料是否有足夠的保護設計?這些都是未來任何牽涉廣泛的科技方案,無論是設計者或是使用者,都必須要審慎考慮的問題。

看見科技中的性別議題:誰的設計,誰能得利?

數位科技產品推出,設計者往往難以意識自身經驗的偏差,而使用者也有可能後知後覺。該如何察覺數位產品中可能存在的偏差?余貞誼介紹了《數據女性主義》(Data feminism,暫譯)6 裡提出的七個原則,由提問來檢視科技產品中的權力:是誰(或不是誰)從事相關技術工作?哪些族群的目標具有優先性?誰會從中獲利?又會有誰因此受忽略或傷害?

-----廣告,請繼續往下閱讀-----

「要先問出『誰』,這個關鍵問題。」余貞誼認為,由此可一窺各種特權,包括了性別議題,如何融入數據產品。

舉例來說,性愛機器人 (Sex Robot) 的爭議,很明顯可以反映出優先以男性視角為中心的產品設計。最早推出的性愛機器人如美國公司 Realbotix 的 Harmony ,其設計服務的對象明顯是異性戀白人男性,除了存在固化的性別腳本,也有科學家指出可能會帶來心理與道德上的隱憂。7

光是決定優先推出的產品、是怎樣的樣貌,就反映了某種權力分配的議題。

設計者優先考慮自己的視角無可避免,但如此一來,蓬勃發展的 AI 產業就更值得密切關注。2018 年,世界經濟論壇 (World Economic Forum, WEF) 全球性別差距報告,指出全球的 AI 從業人員有 78% 為男性組成,性別差距懸殊。AI 快速蔓延各領域應用的此時此刻,如果未能在密切檢視主要由男性視角出發的 AI 應用,將可能擴大既存的性別差距。

-----廣告,請繼續往下閱讀-----

那麼,研發 AI 的時候,該如何避免複製社會上常見的不平等呢?

2018 年二十國集團女性會議 (Women 20, W20) 上,全球資訊網基金會 (World Wide Web Foundation) 提出了運作 AI 的兩個注意事項,以避免帶有性別意識或其他偏見。

首先是應注意訓練資料的平等程度,除了資料的數量,更應該注重質量,尤其檢視樣本中是否存在特定「數據匱乏」(data desert) 的情況,使 AI 缺乏資料無法解讀特定族群。不只性別資料數量應當平均,還包括應納入邊緣與少數族群的資訊。

運作 AI 應注意訓練資料的平等程度,除了資料的數量,更應該注重質量。圖/Pexels

其次,應該找出系統性的偏誤,利用開放資料與邏輯運算進行修正。透過擴大資訊的透明度、訂定相關守則並且開放其它意見的溝通與監督,才有機會避免系統性的偏誤。如前述亞馬遜的履歷 AI 所根據的資料即具備此類系統性的問題,W20 並認為可透過政府單位規範提升 AI 服務的資訊透明度,訂立準則進行監督來修正相關問題。

最後余貞誼補充,由於資料科學家常缺乏對於現場脈絡的理解,《數據女性主義》以及 Google Brain 的數據科學家莎拉‧虎克 (Sara Hooker) ,均提出研發 AI 等數據計畫,應當重視「接地氣」的知識,納入多元參與才有機會打造出更有效、更有創意的方案。

-----廣告,請繼續往下閱讀-----

以性別議題做為試金石,避免人工智慧放大歧視的未來

除了 AI 的從業人員應當銘記在心,自身立場可能帶來的偏差,AI 使用者對於資料來源、資訊與現實間的差距,也應當有一定的體認,甚至提供回饋貢獻。舉例來說,於 2009 年發表於 Nature 風靡一時的「Google 流感趨勢預測」(Google Flu Trend),就在後續幾年間被證實沒有預測效力。當演算法採取間接資料做出推論,使用者對於原始資料與演算法屬性應該有足夠的認識,方不至以管窺天差之千里。

討論到 AI、社群媒體或科技將如何型塑我們的未來,余貞誼主張,任何科技發展的後續效應,主要是人群、情境與科技產物互動的綜合效果,不宜輕易落入「科技決定論」。余貞誼曾以關鍵字分析批踢踢的厭女與性別挑釁,認為由於社群媒體的匿名性以及極化特性,容易聚集極端意見,加上與現實間的界線消弱同情心、倫理規範模糊,因而容易聚集呈現激烈的偏見言論。相同的科技物質基礎不見得會出現同樣結果,仍要端看人與情境的最終互動。

近年來,經諸多有識者的關注,科技設計於性別議題的敏感度逐漸增加。Google 在 2020 年 2 月公開宣告, Google Cloud Vision API 取消照片辨識「男性」「女性」性別標籤,希望以此避免對 AI 灌輸性別偏見。8,9而史丹佛大學歷史系的隆達·希賓格 (Londa Schiebinger) 設立的「性別化創新」網站,也提供科學家與工程師可運用的性別/分析實用方法。如未來設計機器人該如何避免強化性別刻板印象,並列出六種可同時顧及社交投射需求的做法,包括挑戰既有的刻板印象、客製化設計、設計無性別或性別流動的機器人等。10

未來設計機器人應該避免強化性別刻板印象。圖/Pexels

「討論性別,其實就是討論權力,那是一種很具象的『看見權力』的方式。」余貞誼說明從事性別研究的起點,權力有時候很抽象,由性別的角度能協助將之具像化,因而察覺其分佈與影響。

-----廣告,請繼續往下閱讀-----

科技需要克服的偏見絕不止於性別,而探討科技如何受人的權力與價值觀影響,性別議題可說是個最好的試金石,讓我們一窺各種決策之下人性、情境、科技的互動。人工智慧最終發展是載是覆,就端看人類的智慧是否足以駕馭這把雙面刃了。

參考資料

  1. 亞馬遜發現招聘用人工智慧系統歧視女性,決定棄用
    亞馬遜AI徵才歧視女性挨轟- 國際
  2. Buolamwini, J., & Gebru, T. (2018, January). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability and transparency (pp. 77-91). PMLR.
  3. Courtland, R. (2018). Bias detectives: the researchers striving to make algorithms fair, Nature. Accessed 23 July, 2018. Available: httpa.
  4. 打擊猖獗性犯罪 印度加裝AI監視器偵測女性表情
  5. 印度警方使用人臉辨識技術,在4 天內發現近3000 名失蹤兒童
  6. Book: “Data Feminism”
  7. 暗黑的AI性與愛學者警告:性愛機器人有害- 國際
    AI性愛機器人恐危害人類心理與道德專家籲管制[影] | 國際
  8. Google 圖片辨識AI 工具將不再標記男女| TechNews 科技新報
  9. 高雄醫學大學性別研究所:Al 與社會—數據女性主義
  10. 性別化創新
文章難易度
所有討論 3
科技大觀園_96
82 篇文章 ・ 1124 位粉絲
為妥善保存多年來此類科普活動產出的成果,並使一般大眾能透過網際網路分享科普資源,科技部於2007年完成「科技大觀園」科普網站的建置,並於2008年1月正式上線營運。 「科技大觀園」網站為一數位整合平台,累積了大量的科普影音、科技新知、科普文章、科普演講及各類科普活動訊息,期使科學能扎根於每個人的生活與文化中。

0

0
0

文字

分享

0
0
0
AI 生成影像有多接近真實世界?人類將製造出世界模擬器?
泛科學院_96
・2024/04/22 ・670字 ・閱讀時間約 1 分鐘

-----廣告,請繼續往下閱讀-----

Sora 號稱自己是世界模擬器,但真的嗎?

這個問題,AI 大佬與研究者們比你更關心!

Sora 推出後不到一個月,不僅各大研究機構像開掛般發表相關論文,連 Nvidia、Meta、微軟,甚至是特斯拉創辦人 Elon Musk 也都跳出來分享看法⋯⋯

今天呢,我們從論文與 AI 大佬們的意見,來回答這兩個問題:

-----廣告,請繼續往下閱讀-----
  1. 為什麼 Sora 敢稱自己是世界模擬器?
  2. 世界模擬器離我們還有多遠?

說了那麼多,最後想問各位,你覺得照這個速度發展下去,你覺得會先成真呢?

  1. 通用型人工智慧
  2. 人類移民火星
  3. 都看不到,人類要滅亡了

歡迎在下面留言大家分享討論。喜歡這支影片的話,也別忘了按讚、訂閱,加入會員,下集再見~掰!

更多、更完整的內容,歡迎上科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

泛科學院_96
31 篇文章 ・ 40 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

0

1
0

文字

分享

0
1
0
可以瑟瑟!AI 陪伴使用心得——我的 AI 女友有點危險?
泛科學院_96
・2024/04/21 ・963字 ・閱讀時間約 2 分鐘

任何新科技誕生,人們總會問:「可以拿來瑟瑟嗎?」

AI 也不例外,在去年 AI 浪潮中,「AI 女友」,或者說「AI 陪伴」,也如雨後春筍般出來。

從去年六月開始,加密創投傳奇 A16z 就不斷宣揚 AI 陪伴是趨勢,這東西有搞頭阿!還順勢在 GitHub 上分享自己開發的 AI 陪伴服務。

不過,我更在意的是 A16z 年初分享的 AI 陪伴工具圖!這裡的英文字母(NSFW)引起我高度的興趣,因此稍微探索了一下。所以今天呢,就來分享使用第一象限服務的心得……

-----廣告,請繼續往下閱讀-----

額……會被黃標?剪輯說所有素材都要上馬賽克?

蛤?這集居然能接到業配?廠商爸爸會罵?

恩……好,所以今天,我們來聊三件事:

  1. A16z 這張圖除了第一象限,還說了什麼未來趨勢?
  2. 推出 firefox 的 Mozilla 基金會對 AI 陪伴提出的警告
  3. 「AI 陪伴」真的有助於心理健康嗎?

如果你想來點刺激的,請自己探索第一象限,我幫不了你,但也麻煩看完 Mozilla 對 AI 交友提出的警告再行動。廢話不多說,讓我們開始吧~

-----廣告,請繼續往下閱讀-----

總之,使用 AI 陪伴服務的時候,我們建議妳參考Mozilla基金會的建議,我把中文翻譯放在這,希望能幫助到想用 AI 女友的人。

然後我回頭看了一下我有用過的 AI 女友,好像都蠻危險的……就不推薦各位去用了,自己斟酌。

最後,我們把兩方對 AI 陪伴的觀點與資訊放在這裡。因為我只研究 AI 女友,如果你想要看 AI 男友的測試,這個……給我一點時間。

也想問問大家,你覺得未來 AI 陪伴會怎麼發展?

-----廣告,請繼續往下閱讀-----
  1. 我就是要瑟瑟,A16z 的藍圖一定會成真
  2. 有太多問題了,AI 陪伴市場會泡沫
  3. 最終我們都會有一個 AI 伴侶,但不是現在看到的服務模式
  4. 其他,也歡迎留言分享喔


有想要看的 AI 測試或問題,也可以在下面敲碗留言!

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

討論功能關閉中。

泛科學院_96
31 篇文章 ・ 40 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

0

0
0

文字

分享

0
0
0
【suno AI】五音不全也沒關係,讓 AI 幫你唱歌!這些 AI 是怎麼做到音樂生成的?
泛科學院_96
・2024/04/18 ・459字 ・閱讀時間少於 1 分鐘

-----廣告,請繼續往下閱讀-----

不知道大家有沒有被傳說中的OO緊縮術攻擊,總之小編是中招了。

有時候一個人上網也是挺無助的,手足無措的我就想了解一下歌曲生成的魔法是怎麼出現的。

今天就讓我們來評測一下線上歌曲生成的服務,順便說說這些聲音生成是怎麼做出來的。

廢話不多說,讓我們開始吧!

-----廣告,請繼續往下閱讀-----

你有用過什麼更好笑,更好用的 AI 音樂生成工具呢?

我們最近有在研究怎麼用 AI 剪片,還有……AI 女友。

想看剪片的打+1,想看女友的打 <3

有其他想要看的 AI 測試或相關問題,也可以留言分享喔!

-----廣告,請繼續往下閱讀-----

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

討論功能關閉中。

泛科學院_96
31 篇文章 ・ 40 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!