網站更新隱私權聲明
本網站使用 cookie 及其他相關技術分析以確保使用者獲得最佳體驗,通過我們的網站,您確認並同意本網站的隱私權政策更新,了解最新隱私權政策

0

0
1

文字

分享

0
0
1

「血是非常不平凡的液體」–1901年第一屆諾貝爾生理學醫學奬

hemmings
・2013/02/19 ・1709字 ・閱讀時間約 3 分鐘 ・SR值 612 ・十年級

「血是非常不平凡的液體」-1901年第一屆諾貝爾生理學醫學奬得主Emil von Behring [1]

von Behring, Emil, and Kitasato, Shibasaburo. (1890) “The mechanism of immunity in animals to diphtheria and tetanus.“(動物對白喉與破傷風的免疫機制)

文 / Hemmings Wu(比利時魯汶大學博士生,醫學背景,專攻功能神經外科/神經科學)

第一屆諾貝爾生理學/醫學獎,於1901年頒給了德國生理學家Emil von Behring。von Behring和Kitasato兩位科學家基於在白喉與破傷風免疫機制上的研究成果,在1890年共同發表醫學論文,為日後傳染病疫苗及血清療法奠定了非常重要的基礎。

他們正式發表研究成果以前,醫學界在治療白喉與破傷風病人時幾乎束手無策。在面對痛苦且高流行性的疾病,醫生們除了消極地緩解症狀外(比如在患者無法呼吸時進行氣管插管),無從直接針對病原體進行治療。

一名即將死於破傷風的士兵。Sir Charles Bell,1809

當時醫學界對免疫機制的主流觀點還停留在「細胞免疫」,即「免疫機制是通過血細胞(白血球)的吞噬作用完成」,尚未意識到除了白血球以外,血清也是免疫系統的重要一環。

von Behring and Kitasato在1890年於《Deutsche Medizinische Wochenschrift》(German Medical Weekly,德國醫學周刊)共同發表的一篇文章裡,在開頭就清楚總結了他們的發現:

“In both infectious diseases, we have been able to cure infected animals, as well as to pretreat healthy animals so that later they will not succumb to diphtheria or tetanus.”

“The immunity of rabbits and mice, which have been immunized against tetanus, depends on the ability of the cell-free bllod fluid to render harmless the toxic substance which the tetanus bacillus produces.”

他們在實驗中發現他們能夠治癒感染了白喉或破傷風的動物,同時也可以預防健康的動物感染這兩種疾病。 此外,他們還針對這背後的機理進一步做出了重要推論:“兔和小鼠對破傷風的免疫能力來自於無血細胞的血清,因為血清具有破傷風毒素中和作用。”

他們的實驗步驟如下:

  1. 首先讓兔對破傷風獲得免疫,然後將具有免疫力的兔的血(免疫兔血)在凝固以前就注入到小鼠的腹腔中。
  2. 經過24小時後,讓這些實驗組小鼠與對照組小鼠(注射未獲得破傷風免疫兔血之小鼠)感染破傷風。經過36小時,對照組小鼠死亡,而實驗組小鼠依然健康。
  3. 若在免疫兔血凝固之後,單獨抽出血清,將血清注入另一組小鼠腹腔內,該組小鼠在感染破傷風後仍能健康存活。而在先感染破傷風的小鼠注射免疫兔血血清的實驗裡,實驗者進一步證明血清除了預防作用外,同時具有治療作用。
  4. 若將免疫兔血血清與破傷風毒素混合後再注入小鼠腹腔內,小鼠不會出現破傷風症狀。
  5. 最後,實驗還發現:接受免疫兔血的小鼠對破傷風產生的免疫力是永久性的。

根據以上實驗結果,von Behring和Kitasato做出以下結論:

「對破傷風有免疫力的兔血可以中和破傷風毒素;體外血或血清都保有這項中和特性;這項特性非常穩定,以至於將具有免疫力之全血或血清注入到其他動物體內也有同樣效果,進一步證明可以通過輸血或者血清來治療疾病;對破傷風沒有免疫力的動物的血不具備中和破傷風毒素的能力,而且即使在動物死後破傷風毒素仍會存在於其血液和體液內。」

平心而論,如果以現代科學研究技術來回顧他們在當年的工作,會發現其實這只是再簡單不過的實驗組與對照組的研究。但這卻是在一百二十多年前就已經發 表出來的文章,是人們還在摸索真正科學精神的過程。那個年代沒有電腦、沒有網路、沒有手機、沒有電話,就連距離愛迪生改良的電燈泡問世也才不過是十年左右 時間。那個時代的科學家資源非常有限,要查篇參考文獻都是異常艱鉅的事,但科學進步的腳步並沒有逗留或停滯。von Behring的研究證明了血清療法的療效,同時也對日後免疫學的理論發展奠定下重要的基礎。

最後,von Behring和Kitasato在文章結尾引用德國劇作家歌德《浮士德》裡的一句名言做為結束:

「血是非常不平凡的液體。」
“Blut ist ein ganz besonderer Saft” (Blood is a very unusual fluid)

這是當浮士德在與魔鬼在契約書上用他的血簽下名時,魔鬼對當時不以為意的浮士德說的一句話。不禁令人高山仰止 地會心一笑。

為了知識的欲望而出賣靈魂與魔鬼簽約的浮士德。Julius Nisle, 1840

以下網址可以鏈接到von Behring和Kitasato在1890年發表於Deutsche Medizinische Wochenschrift的英文翻譯:
The mechanism of immunity in animals to diphtheria and tetanus

Behring, E. and Kitasato, S. 1890. Ueber das Zustandekommen der Diphtherie-Immunitat und der Tetanus-Immunitat bei thieren. Deutsche medizinsche Wochenschrift 16:1113-1114 In Milestones in Microbiology: 1556 to 1940, translated and edited by Thomas D. Brock, ASM Press. 1998, p138

 

原刊載於 Journal of Nobel Prize Winners

文章難易度
hemmings
9 篇文章 ・ 0 位粉絲
認為科學必須從基礎紮根,相信經典必有其價值和意義。 通過介紹諾貝爾大師們的研究工作和嚴謹態度,在大眾科學的汪洋中推廣經典科學理論以及科學精神的重要性,並冀望藉此能讓讀者以一個更寬廣的角度來欣賞現代社會之包羅萬象。


5

7
0

文字

分享

5
7
0

當 AI 的「深度學習」形成偏見,法規該如何遏止傷害?

科學月刊_96
・2022/01/03 ・3732字 ・閱讀時間約 7 分鐘
  • 文/廖英凱|非典型的不務正業者、興致使然地從事科普工作、科學教育與科技政策研究。對資訊與真相有詭異的渴望與執著,夢想能做出鋼鐵人或心理史學。

Take Home Message

  • AI 雖然能協助遏止違法或侵權的言論,但一般大眾卻無法得知其評斷的機制,已於無形中造成傷害。
  • AI 的資料庫誤差,將造成演算法對文化或族群產生偏見等;而深度學習的演算法因處理龐大的資料,常使研究者或運用 AI 的機構無法理解與回溯 AI 的決策原因。
  • 歐盟、美國、聯合國等組織已相繼研擬 AI 的規範與監管方式。
  • 臺灣仍須再制定 AI 相關的監管辦法,以因應科技的發展及變遷。

「你今天被祖了嗎?」

眾所皆知目前社群網路最大的平台臉書(Facebook),為遏阻違法或侵權的言論,會判定某些言論違反其「社群守則」而隱藏。不可否認,違法與侵權言論在社群網路上造成了嚴重的傷害,不過有時候這些隱文的原則,似乎與政治或特定議題有關。時不時也有朋友提到,一則再平凡不過的貼文或照片,卻莫名其妙地被宣告違反社群守則。於是乎在去(2021)年時,網友們開始把臉書創辦人祖克柏(Mark Zuckerber)的姓氏,變成了諷刺臉書封鎖文章標準混亂的話梗:你被「祖」了嗎?

想當然爾如臉書等社群媒體,是仰賴著演算法自動判斷一則貼文是否違規。除了針對文字與圖片的內容分析以外,其他例如被檢舉的數量、帳號的活躍程度、帳號的發文模式、商業價值等,都成為演算法評估一則貼文是否違規的依據,彷彿法官在定罪犯人時不只依據犯罪行為,也會權衡犯人及其社會狀態一樣。然而,我們看得到法官的決策過程與理由,但卻從來沒有機會搞清楚,到底演算法發生了什麼事情,才會宣告一則平凡的貼文違規。

雖然大家平常遇到這種貼文被刪的情況,通常也就是重新打篇文章貼個圖發發牢騷,就這麼過去了。但這個時不時可見的神祕隱文事件,其實就是我們生活中,人工智慧(artificial intelligence, AI)已經持續帶來隱性傷害的頻繁案例。

AI 的傷害跟以往想像的不一樣

自工業革命以降,人類其實蠻迅速地就提出對科技發展副作用的深層反思。例如人類史上第一部科幻作品,1818 年由英國作家雪萊(Mary Shelley)所著作的《科學怪人》(Frankenstein),即是以一個具有擬人思維的人造生命為主角的科幻驚悚作品。伴隨著機器的發展,1956 年達特矛斯會議(Dartmouth Summer Research Project on Artificial Intelligence)上,與會專家提出「artificial intelligence」一詞,認為機器的發展將可像人一般具有學習、理解、適應的能力。

隨著 AI 技術上的演進,人們對 AI 的樂觀與悲觀態度,也愈發分歧。對於 AI 發展所帶來社會的影響,依其態度可以分為:對科技抱持樂觀者,相信「強 AI」的問世可以使電腦與人有相同甚至超越人類的思考能力,並為人類解決大部分問題,帶來更理想的明天,在電影動畫等作品中不乏這類理想的人工智慧角色;重視科技實用者,傾向認為 AI 是以輔助人類的角色,解放人類的勞力工作而能開創更多科技應用的可能;重視科技發展脈絡者,則認為 AI 只是科技發展中的一個流行詞(buzzword),只有尚在發展中,尚未充分掌握的技術才會被視為 AI。與科技領域相對,在人文社會領域中則較常出現對 AI 發展的反思,例如研究 AI 對人類勞力取代後所創造的弱勢衝擊;或更甚者認為強 AI 的不受控發展,將會導致人類文明的毀滅。這些不同立場的觀點,均揭示了人類看待 AI 對社會影響的多元與矛盾預測。

儘管當代影視作品和學術研究,都對 AI 會造成什麼樣的傷害有興趣,但 AI 帶來的傷害早已出現多年而默默影響著人類社會。2018 年在《自然》(Nature)期刊上的一則評論,介紹了一張身披白紗的歐美傳統新娘和印度傳統新娘的組圖,而演算法在看待兩張新娘照片時,會將前者判斷為「新娘」、「洋裝」、「女人」、「婚禮」等,但將後者判斷為「表演」和「戲服」。在這個案例中,AI 或演算法設計本身其實並沒有獨鍾哪一種文化,但因為演算法的訓練來自於既有圖庫,而圖庫中的圖片來源和圖片的詮釋註記,與真實世界的樣貌出現落差,使人工智慧就如真人一般,憑藉著片面不完整的學習資料,產生了對族群與文化的偏見(偏誤),而演算法可能更無法自覺與反思自我產生的偏見(圖一)。

(圖一)由於 AI 只憑藉片面且不完整的資料進行學習,以婚紗為例,AI 只能辨識出傳統歐美的婚紗裝扮(左),卻難以辨識出不同文化的婚紗樣貌,例如印度傳統服飾(右)。(123RF)

除了資料庫的誤差而導致演算法對文化或族群的偏見以外,「深度學習」(deep learning)的演算法因處理龐大的訓練資料、分析資料,也常使研究者或使用 AI 服務的機構,無法理解與回溯 AI 決策的具體原因。例如亞馬遜公司(Amazon.com, Inc.)仰賴演算法全自動判斷大量受僱員工的工作狀態,並以此決定他們的績效與裁員與否。儘管這種做法能大幅縮減決策時間,並減少人資成本,但也因此發生數起亞馬遜員工因系統過失而被降低績效,或是員工績效良好卻被無故裁員,更申訴無門的矛盾事件。這與將 AI 應用於人資的初衷似乎有點相悖,演算法或許可以避免人為決策時,因涉及個人喜惡偏好而作出不公允的判斷,但卻也造成了另一種不公允也無從理解緣由的傷害。

誰來規範 AI?

既然 AI 的傷害已然出現,自然也應有對 AI 的監管與規範機制。例如歐盟執委會(European Commission)在 2019 年 4 月公布「值得信賴的人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI),強調人工智慧應為輔助角色,尊重人類自主、避免傷害、維護公平、具有可解釋性,且能受到監管並回溯決策過程,以避免演算法的黑箱決策,作為歐盟成員國在訂定 AI 相關規範的上位依據。2019 年 5 月,經濟合作暨發展組織(Organisation for Economic Cooperation and Development, OECD),提出 AI 發展的原則應有永續精神以造福人類與地球,能尊重民主與法治、人權與多元性,兼顧透明度、課責機制等原則。美國白宮科技辦公室在 2020 年 1 月發布的「人工智慧應用的管制指引」(Guidance for Regulation of Artificial Intelligence Application),也強調衡量風險避免傷害、公平無歧視、透明度、重視科學實證、立法過程應兼顧公共參與等,作為美國政府各機關在訂定與人工智慧相關規範的指導原則。聯合國教科文組織(United Nations Educational Scientific and Cultural Organization, UNESCO)則在去年 11 月,發布《人工智慧倫理建議書》草案(Draft text of the recommendation on the ethics of artificial intelligence),作為會員國訂定 AI 相關法律與政策時,可依循的通用價值觀、原則和行動框架。

國際上重要的原則指引,也同等地體現在民意對 AI 治理的期待,臺灣師範大學教授李思賢、劉湘瑤、張瓅勻等人針對臺灣 1200 位民眾的調查發現,臺灣民眾對 AI 的應用最在意的是避免傷害,其次則是透明度與公平性,相對最不在意的是隱私。調查亦發現民眾明確偏好以公民審議和立法機關來制定嚴格傾向的規範,這反映了民眾對新興科技的擔憂與對透明治理的期待,也呼應了國際組織的指引方向(圖二)。

(圖二)AI 規範制定權則偏好。李思賢教授等人,調查國人對 AI 規範制定的偏好。發現國人無論對 AI 發展持保守態度或開放態度,均傾向以公民審議和立法機構來制定規範。

然而,國際上的重要指引與民調結果,卻也讓我國在相關規範的設計上略顯矛盾。例如調查研究顯示,雖然民眾最期待以「公民審議」和「立法機構」來訂定 AI 相關規範,但現今國內外相關規範的研擬與討論,仍是以由產官學組成的研究與應用社群為主,例如科技部自 2017 年起,開展多場 AI 倫理議題的研究計畫與論壇工作坊等,並於 2019 年 9 月提出《人工智慧科研發展指引》,明訂 AI 科研的核心價值與指引,使科研人員在學術自由與創新發展的同時,也能兼顧 AI 發展的方向。

但科技部並非產業的主責機關,所訂定的指引僅能提供科研人員更好的方向,對已產生傷害的業界應用仍然鞭長莫及。儘管 2018 年 11 月立法院曾通過初具 AI 倫理精神的《無人載具創新實驗條例》;2019 年 5 月,時任立法委員許毓仁等人也提出《人工智慧發展基本法》修法草案,作為政府兼顧人工智慧產業發展和倫理規範的法律基礎,但該草案的相關修法討論並未被積極延續,作為國家更上位看待 AI 發展的治理框架,於立法體制和公民審議機制中均尚未開展高強度的討論。

AI 對今日生活的便利已無遠弗屆,而 AI 所帶來的傷害,雖微小、難以察覺,但也已經出現,對應的倫理指引與規範在國際也蔚成趨勢,但臺灣仍在牛步,或許國家在看待 AI 發展時,必須開始將這些規範視為迫切的基礎建設。

如同歷史上所有科技進展一般,科技帶來的進步與災變往往是隱性與持續的,直到人們已慣於新興科技的進步,發現科技的受害者已經出現,才驚覺世界已經完全改觀。

延伸閱讀

  1. James Zou and Londa Schiebinger, AI can be sexist and racist — it’s time to make it fair, Nature, Vol.559, 324-326, 2018.
  2. 人工智慧之相關法規國際發展趨勢與因應,https://www.ndc.gov.tw/nc_1871_31998
  3. 《人工智慧發展基本法》草案,https://pse.is/3w9rrf
  • 〈本文選自《科學月刊》2022 年 1 月號〉
  • 科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。

所有討論 5
科學月刊_96
141 篇文章 ・ 21 位粉絲
非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。