網站更新隱私權聲明
本網站使用 cookie 及其他相關技術分析以確保使用者獲得最佳體驗,通過我們的網站,您確認並同意本網站的隱私權政策更新,了解最新隱私權政策

0

0
0

文字

分享

0
0
0

哲普術語那麼多,師爺你來翻譯翻譯

好青年荼毒室
・2019/01/31 ・3460字 ・閱讀時間約 7 分鐘 ・SR值 558 ・八年級

常言道,哲學是種批判反省,這種批判反省,自不能拒自己於外。因此,做哲學普及的人理當對哲普的意義、哲普應該怎樣做等問題有一套看法。今次想談談的是哲普應該怎樣做的問題。

這還用說明?都說術語就是…

常聽到有論者認為,推廣哲學時不用也不應該迴避術語,認為於認識哲學而言,學習術語是必要的,故此在推廣之時也不應迴避術語,使讀者失去了一個認識哲學的機會。當然,通常認為不必迴避術語的人,也會同意我們不應搬弄術語,為用術語而用術語。而且,每次使用也應該清楚解釋術語的意思,使讀者不會如墜進五里霧中。

可是,在討論應該如何使用術語前,我們還是想跟這些論者商榷一下,究竟推廣哲學是不是非用術語不可

第一種術語:因方便而生

術語對每個學科來說,可說是必不可少。每個學科當發展到一定水平和深度,自然就會發現出一些複雜的概念來處理困難的問題。不論數學、自然科學、社會科學或各人文學科亦復如是,十分正常。當用上的概念越來越複雜時,以一般的日常語言去指稱這些概念便會十分麻煩和冗長,不利學術討論。所以學圈內便自然會產生不少術語,來指稱和討論這些概念。在這情況下出現的術語,最終都只是方便我們討論而出現,但歸根究底也是可以用日常語言來清楚說明。﹙不過如果是非常進階理論中的術語,因為它預設了太多理論背景,要清楚說明可能要用十分長的時間!﹚

理解專業術語是認識哲學的必經之路,但對哲學較陌生的讀者,若沒有清楚的解釋,可能因此難以入門。圖/pixabay

第二種術語:意思不為日常語言所窮盡

當然如果問題複雜到一定層度,我們要表達的意思,便有可能無法找到意義相同的日常語言來說明。例如有些哲學家會認為日常語言中的字詞都包含了某些預設,故我們怎樣用日常用語也不可能簡單地拋開這些意思。在這時候,術語就並不只是為免以日常語言去說明會過於冗長而出現的產物;反過來說,這些術語的意思,根本就不能為日常語言所窮盡。

不過我們應當注意,即便如此,我們解釋這種術語的意思時,仍然不得不依賴日常語言。你試想想,如果我們處理某一問題,最終要引入一個新的術語,那我們怎樣解釋給其他人聽?這術語或不能在日常語言中找到任何完全同義字詞、描述,但至少我們只能以日常語言去盡量迫近那個意思,讓聽者慢慢把握到當中的意思。所以,就算日常語言中沒有同義字詞,但日常語言仍有重要的解釋作用。離開了這些解釋,我們連引入新術語都不可能。

你說說推廣哲學應推廣什麼?

哲學歷史源遠流長,處理的問題既抽象又複雜,上述兩種術語自然不比其他學科少。但我們想提出的問題是:學習哲學時,究竟重點在哪處?甚麼才是哲學的核心和最有意義的地方?推廣哲學時,我們又應以推廣哪些東西為主?

學習哲學猶如攀登高山,對於一個又一個的哲學問題,學習者常常都要費勁跨越到自己也許從未接觸或想過的事。圖/Pixabay

我們認為,哲學最有價值的地方,首先在於其所提出的問題:甚麼是時間?人生有沒有意義?甚麼是道德?甚麼是知識?我們應該吃動物嗎?甚麼是愛情?這是都是哲學問題,而學習哲學的第一步,就在於明白這些問題究竟在問些甚麼。很多時候,提出重要的問題,比提出有力的回應更加重要。尤其哲學每每反省一些十分基礎的概念和想法,故如果不是有人告訴你有這些問題,很多人可能想也沒想過。所以,能理解這些問題,本身已經十分有價值。

認識到哲學問題後,慢慢我們學習提出哲學問題的意識,成為你習慣之一。你會開始提出自己的哲學問題,並發現其實有很多問題需要回答,世界並不是以前看的那麼簡單。而這時候,你可說已經踏進了哲學的大門。

其次,除了問題,哲學家的不同答案也十分重要。哲學理論五花八門,不同的進路都有其精采之處。而學習哲學的一大重點,便在於把握這些哲學理論的思路,了解它們怎樣回應。

最後,有些哲學家會認為根本沒有獨立於哲學史的哲學問題,所以要理解哲學,就不得不學習哲學史。當然這只是其中一種哲學立場,但對很多覺得我們能獨立於哲學史的人來說,學習哲學史也能有力地幫助我們理解和思考不同哲學問題,故為學習哲學時重要的一環。

那我們要用術語嗎?

好了,說到這裏,我們終於要回來本來的議題。如果推廣哲學在於令更多人把握到哲學問題,並且了解一些可能回應和基本的哲學史,那麼術語是不是非用不可?

我們認為,當受眾本身達到一定哲學水平,那麼他就難以完全不用術語。一來,若然要學習更多哲學時,其他的哲學討論也會用上了這些術語,不學術語便很難與學術世界接軌。二來,如上所說,有些時候術語要表達的意思,不一定能完全化約為日常語言。如此,把握術語本身就是學習相關理論所必要。尤有甚者,有時候討論哲學,我們會用術語大概地指稱正在討論的東西,但要搞清這些術語的確切意思或正確定義,本身就是一項重要的哲學工作。在這幾個層面來說,學習術語可說是學習哲學所必要的,而且推廣術語本身也其意義。

可是,如果受眾不太認識哲學,我們卻認為,能把握到那個哲學問題在問甚麼、某些理論又可怎樣回應、這問題在哲學史中怎樣走出來,本身就已經很有意義,甚至才是哲學最根本、最有價值的地方。而要做到這幾點,卻不一定要用上術語。﹙我們有信心,可以不用術語,也能清楚地跟初到中階的讀者清楚地講明一個哲學問題和一些基本回應。﹚

能把握到那個哲學問題在問甚麼、某些理論又可怎樣回應、這問題在哲學史中怎樣走出來,本身就已經很有意義。而要做到這幾點,卻不一定要用上術語。圖/Pixabay

如果一個初入門的讀者能做到上述幾點,那麼就算他一個術語都不會,我們覺得他也已經學習得非常不錯。哲學的重點,從來都在於提問與思考回答的過程,而在入門級別的討論中,術語絕對不是必要。若然最後學習哲學變成了學習術語,那更可說是本末倒置。

所以,我們認為,在最入門級別的哲普文章中,適當地迴避使用術語是有意義的。一來這絲毫不會減少我們學到的「哲學份量」,二來術語始絡是一道門檻,會把一些讀者攔下來。當然,在程度深一點的文章中,慢慢地引入一些術語亦有其價值。所以我們不反對使用甚至推廣使用某些術語,但我們不認為推廣哲學就不應迴避術語,也不認為術語本身之於推廣哲學有這麼重要的價值﹙畢竟哲普的受眾大部分都沒有學習過很多哲學啊﹚。

當然,說到底,即使要使用術語,我們也有責任要作清楚解釋。不然通篇文章都是特有所指的術語,讀者根本不可能明白文章的意思,遑論明白哲學問題和回應的思路。網上很多所謂的哲普文章,通篇都是術語,而又不清楚解釋術語的意思,根本就不是在普及哲學,倒過來反讓不少讀者卻步,以為哲學就是這麼難懂。這種把大眾排拒於門外的「哲普」,究竟是哪門子哲普啊?

亂用術語的後果

亂用哲學術語,可能使讀者在理解的路上更加受挫,猶如鴨子聽雷,只知雷聲大。圖/Pixabay

反過來說,這些通篇術語又不作解釋的文章,就算對看得下去的讀者也會有反效果。這些讀者一般對哲學都很感興趣,所以就算文章讀不懂,也會窮探力索,以求盡力搞懂這些術語和術語之間的關係。去到最後,這些讀者往往好像若有所得,但若問他們這些術語的意思,他們卻只能「以術語解釋術語」,根本沒有清楚弄明白箇中意思。可是,他們卻因此以為自己已經認識了一些哲學,甚至認為這些術語加起來就是哲學。

我們認為,這問題對推廣哲學為禍甚大。推廣哲學的目標之一,就是希望更多的大眾能清晰思考和表達自己所想,也加深對不同問題的理解和反思。上述的哲普方式,不單沒法讓大家理解問題得更好,還教大家思考得更加混亂﹙卻又自覺思考能力更厲害﹚,可說是完全沒有價值。

所以說,哲普中,我們不反對使用術語,但我們並不認為一定要用術語 ── 要用時,也務必非常小心。

 

文章難易度
好青年荼毒室
29 篇文章 ・ 4 位粉絲
好青年荼毒室,一個哲學普及平台。定期發表各類型哲普文章,有深有淺,古今中外,無所不談。在這裏,一切都可以被質疑、反省和追問。目標是把一個個循規蹈矩的好青年帶進哲學的世界。網頁:corrupttheyouth.net;臉書:https://www.facebook.com/corrupttheyouth。


5

7
0

文字

分享

5
7
0

當 AI 的「深度學習」形成偏見,法規該如何遏止傷害?

科學月刊_96
・2022/01/03 ・3732字 ・閱讀時間約 7 分鐘
  • 文/廖英凱|非典型的不務正業者、興致使然地從事科普工作、科學教育與科技政策研究。對資訊與真相有詭異的渴望與執著,夢想能做出鋼鐵人或心理史學。

Take Home Message

  • AI 雖然能協助遏止違法或侵權的言論,但一般大眾卻無法得知其評斷的機制,已於無形中造成傷害。
  • AI 的資料庫誤差,將造成演算法對文化或族群產生偏見等;而深度學習的演算法因處理龐大的資料,常使研究者或運用 AI 的機構無法理解與回溯 AI 的決策原因。
  • 歐盟、美國、聯合國等組織已相繼研擬 AI 的規範與監管方式。
  • 臺灣仍須再制定 AI 相關的監管辦法,以因應科技的發展及變遷。

「你今天被祖了嗎?」

眾所皆知目前社群網路最大的平台臉書(Facebook),為遏阻違法或侵權的言論,會判定某些言論違反其「社群守則」而隱藏。不可否認,違法與侵權言論在社群網路上造成了嚴重的傷害,不過有時候這些隱文的原則,似乎與政治或特定議題有關。時不時也有朋友提到,一則再平凡不過的貼文或照片,卻莫名其妙地被宣告違反社群守則。於是乎在去(2021)年時,網友們開始把臉書創辦人祖克柏(Mark Zuckerber)的姓氏,變成了諷刺臉書封鎖文章標準混亂的話梗:你被「祖」了嗎?

想當然爾如臉書等社群媒體,是仰賴著演算法自動判斷一則貼文是否違規。除了針對文字與圖片的內容分析以外,其他例如被檢舉的數量、帳號的活躍程度、帳號的發文模式、商業價值等,都成為演算法評估一則貼文是否違規的依據,彷彿法官在定罪犯人時不只依據犯罪行為,也會權衡犯人及其社會狀態一樣。然而,我們看得到法官的決策過程與理由,但卻從來沒有機會搞清楚,到底演算法發生了什麼事情,才會宣告一則平凡的貼文違規。

雖然大家平常遇到這種貼文被刪的情況,通常也就是重新打篇文章貼個圖發發牢騷,就這麼過去了。但這個時不時可見的神祕隱文事件,其實就是我們生活中,人工智慧(artificial intelligence, AI)已經持續帶來隱性傷害的頻繁案例。

AI 的傷害跟以往想像的不一樣

自工業革命以降,人類其實蠻迅速地就提出對科技發展副作用的深層反思。例如人類史上第一部科幻作品,1818 年由英國作家雪萊(Mary Shelley)所著作的《科學怪人》(Frankenstein),即是以一個具有擬人思維的人造生命為主角的科幻驚悚作品。伴隨著機器的發展,1956 年達特矛斯會議(Dartmouth Summer Research Project on Artificial Intelligence)上,與會專家提出「artificial intelligence」一詞,認為機器的發展將可像人一般具有學習、理解、適應的能力。

隨著 AI 技術上的演進,人們對 AI 的樂觀與悲觀態度,也愈發分歧。對於 AI 發展所帶來社會的影響,依其態度可以分為:對科技抱持樂觀者,相信「強 AI」的問世可以使電腦與人有相同甚至超越人類的思考能力,並為人類解決大部分問題,帶來更理想的明天,在電影動畫等作品中不乏這類理想的人工智慧角色;重視科技實用者,傾向認為 AI 是以輔助人類的角色,解放人類的勞力工作而能開創更多科技應用的可能;重視科技發展脈絡者,則認為 AI 只是科技發展中的一個流行詞(buzzword),只有尚在發展中,尚未充分掌握的技術才會被視為 AI。與科技領域相對,在人文社會領域中則較常出現對 AI 發展的反思,例如研究 AI 對人類勞力取代後所創造的弱勢衝擊;或更甚者認為強 AI 的不受控發展,將會導致人類文明的毀滅。這些不同立場的觀點,均揭示了人類看待 AI 對社會影響的多元與矛盾預測。

儘管當代影視作品和學術研究,都對 AI 會造成什麼樣的傷害有興趣,但 AI 帶來的傷害早已出現多年而默默影響著人類社會。2018 年在《自然》(Nature)期刊上的一則評論,介紹了一張身披白紗的歐美傳統新娘和印度傳統新娘的組圖,而演算法在看待兩張新娘照片時,會將前者判斷為「新娘」、「洋裝」、「女人」、「婚禮」等,但將後者判斷為「表演」和「戲服」。在這個案例中,AI 或演算法設計本身其實並沒有獨鍾哪一種文化,但因為演算法的訓練來自於既有圖庫,而圖庫中的圖片來源和圖片的詮釋註記,與真實世界的樣貌出現落差,使人工智慧就如真人一般,憑藉著片面不完整的學習資料,產生了對族群與文化的偏見(偏誤),而演算法可能更無法自覺與反思自我產生的偏見(圖一)。

(圖一)由於 AI 只憑藉片面且不完整的資料進行學習,以婚紗為例,AI 只能辨識出傳統歐美的婚紗裝扮(左),卻難以辨識出不同文化的婚紗樣貌,例如印度傳統服飾(右)。(123RF)

除了資料庫的誤差而導致演算法對文化或族群的偏見以外,「深度學習」(deep learning)的演算法因處理龐大的訓練資料、分析資料,也常使研究者或使用 AI 服務的機構,無法理解與回溯 AI 決策的具體原因。例如亞馬遜公司(Amazon.com, Inc.)仰賴演算法全自動判斷大量受僱員工的工作狀態,並以此決定他們的績效與裁員與否。儘管這種做法能大幅縮減決策時間,並減少人資成本,但也因此發生數起亞馬遜員工因系統過失而被降低績效,或是員工績效良好卻被無故裁員,更申訴無門的矛盾事件。這與將 AI 應用於人資的初衷似乎有點相悖,演算法或許可以避免人為決策時,因涉及個人喜惡偏好而作出不公允的判斷,但卻也造成了另一種不公允也無從理解緣由的傷害。

誰來規範 AI?

既然 AI 的傷害已然出現,自然也應有對 AI 的監管與規範機制。例如歐盟執委會(European Commission)在 2019 年 4 月公布「值得信賴的人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI),強調人工智慧應為輔助角色,尊重人類自主、避免傷害、維護公平、具有可解釋性,且能受到監管並回溯決策過程,以避免演算法的黑箱決策,作為歐盟成員國在訂定 AI 相關規範的上位依據。2019 年 5 月,經濟合作暨發展組織(Organisation for Economic Cooperation and Development, OECD),提出 AI 發展的原則應有永續精神以造福人類與地球,能尊重民主與法治、人權與多元性,兼顧透明度、課責機制等原則。美國白宮科技辦公室在 2020 年 1 月發布的「人工智慧應用的管制指引」(Guidance for Regulation of Artificial Intelligence Application),也強調衡量風險避免傷害、公平無歧視、透明度、重視科學實證、立法過程應兼顧公共參與等,作為美國政府各機關在訂定與人工智慧相關規範的指導原則。聯合國教科文組織(United Nations Educational Scientific and Cultural Organization, UNESCO)則在去年 11 月,發布《人工智慧倫理建議書》草案(Draft text of the recommendation on the ethics of artificial intelligence),作為會員國訂定 AI 相關法律與政策時,可依循的通用價值觀、原則和行動框架。

國際上重要的原則指引,也同等地體現在民意對 AI 治理的期待,臺灣師範大學教授李思賢、劉湘瑤、張瓅勻等人針對臺灣 1200 位民眾的調查發現,臺灣民眾對 AI 的應用最在意的是避免傷害,其次則是透明度與公平性,相對最不在意的是隱私。調查亦發現民眾明確偏好以公民審議和立法機關來制定嚴格傾向的規範,這反映了民眾對新興科技的擔憂與對透明治理的期待,也呼應了國際組織的指引方向(圖二)。

(圖二)AI 規範制定權則偏好。李思賢教授等人,調查國人對 AI 規範制定的偏好。發現國人無論對 AI 發展持保守態度或開放態度,均傾向以公民審議和立法機構來制定規範。

然而,國際上的重要指引與民調結果,卻也讓我國在相關規範的設計上略顯矛盾。例如調查研究顯示,雖然民眾最期待以「公民審議」和「立法機構」來訂定 AI 相關規範,但現今國內外相關規範的研擬與討論,仍是以由產官學組成的研究與應用社群為主,例如科技部自 2017 年起,開展多場 AI 倫理議題的研究計畫與論壇工作坊等,並於 2019 年 9 月提出《人工智慧科研發展指引》,明訂 AI 科研的核心價值與指引,使科研人員在學術自由與創新發展的同時,也能兼顧 AI 發展的方向。

但科技部並非產業的主責機關,所訂定的指引僅能提供科研人員更好的方向,對已產生傷害的業界應用仍然鞭長莫及。儘管 2018 年 11 月立法院曾通過初具 AI 倫理精神的《無人載具創新實驗條例》;2019 年 5 月,時任立法委員許毓仁等人也提出《人工智慧發展基本法》修法草案,作為政府兼顧人工智慧產業發展和倫理規範的法律基礎,但該草案的相關修法討論並未被積極延續,作為國家更上位看待 AI 發展的治理框架,於立法體制和公民審議機制中均尚未開展高強度的討論。

AI 對今日生活的便利已無遠弗屆,而 AI 所帶來的傷害,雖微小、難以察覺,但也已經出現,對應的倫理指引與規範在國際也蔚成趨勢,但臺灣仍在牛步,或許國家在看待 AI 發展時,必須開始將這些規範視為迫切的基礎建設。

如同歷史上所有科技進展一般,科技帶來的進步與災變往往是隱性與持續的,直到人們已慣於新興科技的進步,發現科技的受害者已經出現,才驚覺世界已經完全改觀。

延伸閱讀

  1. James Zou and Londa Schiebinger, AI can be sexist and racist — it’s time to make it fair, Nature, Vol.559, 324-326, 2018.
  2. 人工智慧之相關法規國際發展趨勢與因應,https://www.ndc.gov.tw/nc_1871_31998
  3. 《人工智慧發展基本法》草案,https://pse.is/3w9rrf
  • 〈本文選自《科學月刊》2022 年 1 月號〉
  • 科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。

 

所有討論 5
科學月刊_96
76 篇文章 ・ 908 位粉絲
非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。