為什麼台灣會像坐在搖搖椅上,總是時不時地晃動?這個問題或許有些令人不安,但卻是我們生活在這片土地上的現實。根據氣象署統計,台灣每年有 40,000 次以上的地震,其中有感地震超過 1,000 次。2024年4月3日,花蓮的大地震發生後,台灣就經歷了超過 1,000 次餘震,這些數據被視覺化後形成的圖像,宛如台北101大樓般高聳穿雲,再次引發了全球對台灣地震頻繁性的關注。
地震發生後,許多外國媒體擔心半導體產業會受影響,但更讓他們稱奇的是,台灣竟然能在這麼大的地震之下,將傷害降到這麼低,並迅速恢復。不禁讓人想問,自從 25 年前的 921大地震以來,台灣經歷了哪些改變?哪些地方可能再發生大地震?如果只是遲早,我們該如何做好更萬全的準備?
要找到這些問題的答案,最合適的地點就在一座從地震遺跡中冒出的主題博物館:國立自然科學博物館的 921地震教育園區。
1999年9月21日凌晨1點47分,台灣發生了一場規模7.3的大地震,震央在南投縣集集鎮,全台 5 萬棟房子遭震垮,罹難人數超過 2,400 人。其中,台中霧峰光復國中校區因車籠埔斷層通過,地面隆起2.6公尺,多棟校舍損毀。政府決定在此設立921地震教育園區,保留這段震撼人心的歷史,並作為防災教育的重要基地。園區內兩處地震遺跡依特性設置為「車籠埔斷層保存館」和「地震工程教育館」。
車籠埔斷層保存館建於原操場位置,為了保存地表破裂及巨大抬升,所以整體設計不採用樑柱結構,而是由82根長12公尺、寬2.4公尺、重約10噸的預鑄預力混凝板組成,外觀為曲線造型,技術難度極高,屬國內外首見,並榮獲多項建築獎。而地震工程教育館保留了原光復國中受損校舍,讓民眾親眼見證地震的驚人破壞力,進一步強調建築結構與安全的重要性。毀損教室旁設有由園區與「國家地震工程研究中心」共同策劃的展示館,透過互動展示,讓參觀者親手操作,學習地震工程相關知識。
國立自然科學博物館地質學組研究員蔣正興博士表示,面積上,台灣是一個狹長的小島,卻擁有高達近4000公尺的山脈,彰顯了板塊激烈擠壓、地質活動極為活躍的背景。回顧過去一百年的地震歷史,從1906年的梅山地震、1935年的新竹-台中地震,到1999年的921大地震,都發生在台灣西部,與西部的活動斷層有密切關聯,震源位於淺層,加上人口密度較高,因此對台灣西部造成了嚴重的災情。
而台灣東部是板塊劇烈擠壓的區域,地震震源分佈更廣。與西部相比,雖然東部地震更頻繁,但由於人口密度相對較低,災情相對較少。此外,台灣東北部和外海也是地震多發區,尤其是菲律賓海板塊往北隱沒至歐亞板塊的隱沒地震帶,至沖繩海槽向北延伸,甚至可能影響到台北下方,發生直下型地震,這種地震因震源位於城市正下方,危害特別大,加上台北市房屋非常老舊,若發生直下型地震,災情將非常嚴重。
除了台北市,蔣正興博士指出在台灣西部,我們特別需要關注的就是彰化斷層的影響,該斷層曾於1848年發生巨大錯動。此外,我們也需要留意西南部的地震風險,如 1906 年的梅山地震。此兩條活動斷層距今皆已超過 100 年沒活動了。至於東部,因為存在眾多活動斷層,當然也需要持續注意。
我們之所以擔心某些斷層,是因為這些區域可能已經累積了相當多的能量,一旦達到臨界點,就會釋放,進而引發地震。地質學家通常會沿著斷層挖掘,尋找過去地震的證據,如受構造擾動沉積物的變化,然後透過定年技術來確定地震發生的時間點,估算出斷層的地震週期,然而,這些數字的計算過程非常複雜,需要綜合大量數據。
挑戰在於,有些斷層的活動時間非常久遠,要找到活動證據並不容易。例如,1906年的梅山地震,即使不算久遠,但挖掘出相關斷層的具體位置仍然困難,更不用說那些數百年才活動一次的斷層,如台北的山腳斷層,因為上頭覆蓋了大量沉積物,要找到並研究這些斷層更加困難。
儘管我們很難預測哪個斷層會再次活動,我們仍然可以預先對這些構造做風險評估,從過往地震事件中找到應變之道。而 921 地震教育園區,就是那個可以發現應變之道的地方。
在園區服務已 11 年的黃英哲擔任志工輔導員,常代表園區到各地進行地震防災宣導。他細數 921 之後,台灣進行的六大改革。制定災害防救法,取代了總統緊急命令。修訂了建築法規,推動斷層帶禁限建與傳統校舍建築改建。組建災難搜救隊伍,在面對未來災害時能更加自主應對。為保存文化資產,增設了歷史建築類別,確保具有保存價值的建築物得到妥善照料。
最後,則是推行防災教育。黃英哲表示,除了在學校定期進行防災演練,提升防災意識外,更建立了921地震教育園區,不僅作為教育場所,也是跨部門合作的平台,例如與交通部氣象署、災害防救辦公室、教育部等單位合作,進行全面的防災教育。園區內保留了斷層線的舊址,讓遊客能夠直觀地了解地震的破壞力,最具可看性;然而除此之外,園區也是 921 地震相關文物和資料的重要儲存地,為未來的地震研究提供了寶貴的資源。
堪稱園區元老,在園區服務將近 19 年,主要負責日語解說工作的陳婉茹認為,園區最大的特色是保存了斷層造成的地景變化,如抬升的操場和毀壞的教室場景,讓造訪的每個人直觀地感受地震的威力,尤其是對於年輕的小朋友,即使他們沒有親身經歷過,也能透過這些真實的展示認識到地震帶來的危險與影響。
陳婉茹回憶,之前有爸媽帶著小學低年級的小朋友來參觀,原本小朋友並不認真聽講,到處跑來跑去,但當他看到隆起的操場,立刻大聲說這他在課本看過,後來便聚精會神地聽完 40 分鐘的解說。
除了每看必震撼的地景,園區也透過持續更新策展,邀請大家深入地震跟防災的各個面向。策展人黃惠瑛負責展示設計、活動規劃、教具設計等工作。她提到,去年推出的搜救犬特展和今年的「921震災啓示展」與她的個人經歷息息相關。921 大地震時的她還是一名台中女中的住宿生,當時她儘管驚恐,依舊背著腿軟的學姊下樓,讓她在策劃這些展覽時充滿了反思。
在地震體驗平臺的設計中,黃惠瑛強調不僅要讓觀眾了解災害的破壞力,更希望觀眾能從中學到防災知識。她與設計師合作,一樓展示區採用了時光機的概念,運用輕鬆、童趣的風格,希望遊客保持積極心態。二樓的地震體驗平臺結合六軸震動臺和影片,讓遊客真實感受921地震的情境。她強調,這次展覽的目標是全民,設計上避免了血腥和悲傷的元素,旨在讓觀眾帶著正向的感受離開,並重視防災意識。
籌備今年展覽的最大挑戰是緊迫的時間。從五月開始,九月完成,為了迅速而有效地與設計師溝通,黃惠瑛使用了AI工具如ChatGPT與生成圖像工具,來加快與設計師溝通的過程。
蔣正興博士說,當初學界建議在此設立地震教育園區,其中一位重要推手是法國地質學家安朔葉。他曾在台灣指導十位台灣博士生,這些博士後來成為地質研究的中堅力量。1999年921大地震後,安朔葉教授立刻趕到台灣,認為光復國中是全球研究斷層和地震的最佳觀察點,建議必須保存。為紀念園區今年成立20週年,在斷層館的展示更新中,便特別強調安朔葉的貢獻與當時的操場圖。
此外,作為 20 週年的相關活動,今年九月也將與日本野島斷層保存館簽署合作備忘錄(MOU),強化合作並展示台日合作歷史。另一重頭戲則是向日本兵庫縣人與自然博物館主任研究員加藤茂弘致贈感謝狀,感謝他不遺餘力,長期協助園區斷層保存館的剖面展品保存工作。
盡力保存斷層跟受創校舍,只因不想再重蹈覆徹。蔣正興博士表示,921地震發生在車籠埔斷層,其錯動形式成為全球地質研究的典範,尤其是在研究斷層帶災害方面。統計數據顯示,距離車籠埔斷層約100公尺內,住在上盤的罹難率約為1%,而下盤則約為0.6%。這說明住在斷層附近,特別是上盤,是非常危險的。由於台灣主要是逆斷層活動,這一數據清楚告訴我們,在上盤區域建設居住區應特別小心。
2018年花蓮米崙斷層地震就是一個例證。
在921地震後,政府在斷層帶兩側劃設了「地質敏感區」。因為斷層活動週期較長,全球大部分地區難以測試劃設敏感區的有效性,但台灣不同,斷層活動十分頻繁。例如 1951 年,米崙斷層造成縱谷地震,規模達 7.3,僅隔 67 年後,在 2018 年再次發生花蓮地震,這在全球是罕見的,也因此 2016 年劃設的地質敏感區,在 2018 年的地震中便發現,的確更容易發生地表破裂與建築受損,驗證了地質敏感區劃設的有效性。
在過去的20年裡,921地震教育園區不僅見證了台灣在防災教育上的進步,也承載著無數來訪者的情感與記憶。每一處地震遺跡,每一項展示,都在默默提醒我們,那段傷痛歷史並未走遠。然而,我們對抗自然的力量,並非源自恐懼,而是源自對生命的尊重與守護。當你走進這座園區,感受那因地震而隆起的操場,或是走過曾經遭受重創的教室,你會發現,這不僅僅是歷史的展示,更是我們每一個人的責任與使命。
來吧,今年九月,走進921地震教育園區,一起在這裡找尋對未來的啓示,為台灣的下一代共同築起一個更堅固、更安全的家園。
延伸閱讀:
高風險? 家踩「斷層帶、地質敏感區」買房留意
「我摸到台灣的心臟!」法國地質學家安朔葉讓「池上斷層」揚名國際
百年驚奇-霧峰九二一地震教育園區|天下雜誌
討論功能關閉中。
Take Home Message
當談到人工智慧(artificial intelligence, AI)、也就是 AI 時,讀者會想到什麼?是多年前由史匹柏(Steven Spielberg)導演的那部《A.I. 人工智慧》(A.I. Artificial Intelligence)中那個一直盼不到人類母愛而令人心碎的機器人小男孩?還是由史密斯(Will Smith)主演的《機械公敵》(I, Robot)裡那些沒遵守機器人三大法則的機器人或中央系統?
或許未來有一天,人類真的可以設計出如電影中那些像人一樣的 AI 系統或機器人。但目前為止,你常聽到的 AI 其實既很厲害又很不厲害,為什麼呢?厲害的是它下圍棋可贏過世界冠軍,還能夠比放射科技師更快、更準確地辨識 X 光片中疑似病變的細胞;但它不厲害的是,很會下圍棋的 AI 就只能下圍棋,別說不會打牌,連撲克牌是什麼都不知道!而且每次學新事物幾乎都是打掉重練,得不斷做好多考古題才有可能學得會,不像人類通常教幾次就會舉一反三。
不過,即使目前世界上的 AI 都是這種只具備特定功能的「弱 AI」(artificial narrow intelligence, ANI),但已經為這個世界帶來相當大的進步與便利。所以,以下要談的就是 ANI 的倫理與風險。
談到這種只具特定功能的 ANI,讀者知道目前生活周遭有哪些事物有利用 AI 技術嗎?其實 Google 上的搜尋資訊、Facebook 或 Instagram 的訊息推薦、對智慧型手機喊「Siri 現在外面有下雨嗎?」等功能,或是以掃瞄臉部解鎖手機與進入大樓、YouTube 或 Netflix 推薦觀賞影片,甚至是投履歷求職、銀行審核貸款申請等都常用到 AI 技術,它早在我們日常生活中隨處可見。
但也正是如此,讓人們這幾年在使用 AI 時,逐漸發現它可能造成的問題或傷害,以下簡單介紹常見的四種AI應用可能造成的倫理問題或風險。
第一種是演算法偏誤(algorithmic bias)。什麼是演算法偏誤?簡單來說就是 AI 在某些群體的判斷準確率或預測結果上總是很差,導致結果可能對於此群體造成系統性的不利。但為何會造成演算法偏誤?常見原因有三項。
第一項原因是,建立 AI 模型的研究資料集有偏誤,在性別、種族、社經地位等特徵上,沒有真實世界的人口分布代表性。例如數位裝置採用 AI 臉部辨識技術解鎖,原本是希望保護個人使用數位裝置的安全性,結果皮膚深的人卻常常遇到辨識失敗而無法解鎖。這通常是因為目前許多 AI 模型都是以機器學習技術設計,而機器學習的主要特性就是從過去人類留下的大量資料中學習;當初提供電腦學習臉部辨識的圖片時,如果多數都是白皮膚而非黑皮膚、多數都是男性的臉而非女性的臉,那麼電腦在學習辨識人臉的準確率上,整體而言辨識男性白人就會比辨識女性黑人要高出許多。
第二項產生演算法偏誤的原因是建立 AI 模型的研究資料集不只有偏誤,還反映現實社會中的性別、種族、社經地位等歧視;例如美國警政單位以過往犯罪資料訓練出獄後犯人再犯風險評估的 AI 模型,那些資料不意外地有色人種的犯罪紀錄遠多於白人犯罪紀錄。然而,那些紀錄也反映美國社會長久以來對於有色人種的歧視,其中包含警察對於有色人種的盤查比例遠高於白人、法院對於有色人種的定罪比例及判刑嚴重程度也遠高於白人、警力通常被派往多黑人與拉丁裔人種居住的窮困社區盤查等。所以根據過往犯罪資料所訓練出來的 AI 模型,不意外地也就會預測有色人種的再犯機率普遍來說比白人高。
第三項產生演算法偏誤的原因則是 AI 學會了連系統開發者都沒有察覺到,潛藏在資料裡的偏誤。例如科技公司人資部門本來想借助 AI 更有效率地篩選出適合來面試的履歷,所以挑選在該公司任職一定年資且曾升遷二次的員工履歷來訓練 AI 模型。問題是,高科技公司向來男多女少,所提供給 AI 學習的資料自然就男女比例相當不均。AI 也就學會了凡是出現偏向女性名字、嗜好、畢業學校系所等文字的履歷,平均所給的評分都比出現偏向男性等相關文字的履歷還低。
但目前科技公司陽盛陰衰,是受到以往鼓勵男性就讀理工、女性就讀人文科系,或男性在外工作女性在家帶小孩等性別刻板偏見所影響。所以 20~30 年來許多人做出各種努力以消除這種性別刻板偏見所帶來的不良影響,政府也努力制定各種政策來消除這種不當的性別偏見,像是求才廣告基本上不能限定性別、公司聘雇員工應該達到一定的性別比例等。因此,訓練 AI 的研究資料一旦隱藏類似前述性別比例不均的現象,訓練出來的 AI 預測結果就彷彿帶有性別歧視,讓人們過往致力消除性別不平等的各種努力都白費了!
除了演算法偏誤的問題外,第二種可能帶來的倫理問題或風險是 AI 技術已經偏離原先使用目的,例如深偽技術(deepfake)原本用來解決圖片資料量不夠的問題,後來卻被利用在偽造名人性愛影片等。
第三種則是有些 AI 技術或產品本身就可能有善惡兩種用途(dual-use)。例如 AI 人臉辨識技術可用在保護數位裝置的使用者或大樓保全,但也可用來窺探或監控特定個人;無人機可以在農業上幫助農夫播種,但也可作為自動殺人武器;可用來搜尋如何產生毒性最少的藥物合成演算法,也能反過來成為搜尋如何產生毒性最強的藥物合成演算法。
最後,第四種是演算法設計不良或現有技術限制所導致的問題。在演算法設計不良方面,例如下棋機器人手臂可能因為沒有設計施力回饋或移動受阻暫停等防呆裝置,而造成誤抓人類棋手的手指且弄斷的意外。在現有技術限制方面,道路駕駛的交通標誌在現實中可能時常有老舊或髒汙的情況,儘管對於人類駕駛來說可能不影響判讀,但對於自駕車來說很可能就因此會嚴重誤判,例如無法正確辨識禁止通行標誌而繼續行駛,或是將速限 35 公里誤判成 85 公里等。但前述情況也有可能是自駕車網路、控制權限或物件辨識模型受到惡意攻擊所致。
以上介紹了 AI 常見的四種倫理問題或風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。但人們該如何減少這些倫理問題與風險呢?
近五、六年來國際組織如聯合國教育科學及文化組織(United Nations Educational, Scientific and Cultural Organization, UNESCO)、歐盟(European Union, EU)、電機電子工程師學會(Institute of Electrical and Electronics Engineers, IEEE)或是國家、國際非營利組織皆紛紛制訂有關 AI 發展的白皮書或倫理指引(ethical guidelines),甚至逐漸朝向法律治理的方向,如歐盟的人工智慧規則草案等。儘管這些文件所提出的倫理價值、原則或行為規範,看似各有不同,但經過這些年的討論與摸索,也逐漸匯聚出一些共識。
臺灣相較於前述國際文件來說,在制訂的時間上比較晚。2019 年由當時的科技部(現改為國科會)制訂「人工智慧科研發展指引」,裡面提出的三項倫理價值以及八項行為指引,基本上涵蓋了前述各種國際 AI 發展指引文件最常提及的內容。所謂三項倫理價值包含以人為本、永續發展、多元包容,行為指引則有共榮共利、安全性、問責與溝通、自主權與控制權、透明性與可追溯性、可解釋性、個人隱私與數據治理、公平性與非歧視性共八項。
未來當讀者看到又出現哪些 AI 新技術或產品時,不妨試著評估看看是否有符合這三項價值及八項行為指引。若沒有,究竟是哪項不符合?不符合的原因是上述所介紹常見的四種倫理問題或風險的哪一種?若都不是,還有哪些倫理問題或風險過去被忽略了但值得重視?
AI 技術發展日新月進,在日常生活中的應用也愈來愈廣。但考量法律條文有強制性,在制訂時必須相當謹慎,免得動輒得咎,也很可能在不清楚狀況下反而制訂了不當阻礙創新發展的條文;再加上法律制定也必須有一定的穩定性,不能朝令夕改,否則會讓遵守法規者無所適從。因此可以想見,法令規範趕不上新興科技所帶來的問題與風險本來就是常態,而非遇到 AI 科技才有這種情況。
人們若能培養自身對於 AI 倫理問題或風險的敏銳度,便可發揮公民監督或協助政府監督的力量,評估 AI 開發或使用者有無善盡避免傷害特定個人或群體之嫌,逐漸改善 AI 開發者與大眾媒體常過度誇大 AI 功能,但對於可能帶來的倫理問題或風險卻常閃爍其詞或避而不談的不好現象。
本文感謝工業技術研究院產業科技國際策略發展所支持。
搭配不同的任務,人工智慧的應用方式也不一樣,所以開發人員用來創造人工智慧的科技也不一樣。這是部署機器學習時最基礎的挑戰:不同的目標和功能需要不同的訓練技巧。
不過,結合不同的機器學習法,尤其是應用神經網路,就出現不同的可能性,例如發現癌症的人工智慧。
在我們撰寫本章的時候,機器學習的三種形式:受監督式學習、不受監督式學習和增強式學習,都值得注意。
受監督式學習催生了發現海利黴素的人工智慧。總結來說,麻省理工學院的研究人員想要找出有潛力的新抗生素,在資料庫裡放入二千種分子來訓練模型,輸入項目是分子結構,輸出項目是抑菌效果;研究人員把分子結構展示給人工智慧看,每一種結構都標示抗菌力,然後讓人工智慧去評估新化合物的抗菌效果。
這種技巧稱為受監督式學習,因為人工智慧開發人員利用包含了輸入範例(即分子結構)的資料集,在這裡面,每一筆數據都單獨標示研究人員想要的輸出項目或結果(即抗菌力)。
開發人員已經把受監督式學習的技巧應用於許多處,例如創造人工智慧來辨識影像。為了這項任務,人工智慧先拿已經標示好的圖像來訓練,學著把圖像和標籤,例如把貓的照片和「貓」的標籤,聯想在一起,人工智慧把圖片和標籤的關係編碼之後,就可以正確地辨識新圖片。
因此,當開發人員有一個資料集,其中每個輸入項目都有期望的輸出項目,受監督式學習就能有效地創造出模型,根據新的輸入項目來預測輸出項目。
不過,當開發人員只有大量資料,沒有建立關係的時候,他們可以透過不受監督式學習來找出可能有用的見解。因為網際網路與資料數位化,比過去更容易取得資料,現在企業、政府和研究人員都被淹沒在資料中。
行銷人員擁有更多顧客資訊、生物學家擁有更多資料、銀行家有更多金融交易記錄。當行銷人員想要找出客戶群,或詐騙分析師想要在大量交易中找到不一致的資訊,不受監督式學習就可以讓人工智慧在不確定結果的資訊中找出異常模式。
這時,訓練資料只有輸入項目,然後工程師會要求學習演算法根據相似性來設定權重,將資料分類。舉例來說,像網飛(Netflix)這樣的影音串流服務,就是利用演算法來找出哪些觀眾群有類似的觀影習慣,才好向他們推薦更多節目;但要優化、微調這樣的演算法會很複雜:因為多數人有好幾種興趣,會同時出現在很多組別裡。
經過不受監督式學習法訓練的人工智慧,可以找出人類或許會錯過的模式,因為這些模式很微妙、數據規模又龐大。因為這樣的人工智慧在訓練時沒有明定什麼結果才「適當」,所以可以產生讓人驚豔的創新見解,這其實和人類的自我教育沒什麼不同——無論是人類自學或是人工智慧,都會產生稀奇古怪、荒謬無理的結果。
不管是受監督式學習法或不受監督式學習法,人工智慧都是運用資料來執行任務,以發現新趨勢、識別影像或做出預測。在資料分析之外,研究人員想要訓練人工智慧在多變的環境裡操作,第三種機器學習法就誕生了。
若用增強式學習,人工智慧就不是被動地識別資料間的關聯,而是在受控的環境裡具備「能動性」,觀察並記錄自己的行動會有什麼反應;通常這都是模擬的過程, 把複雜的真實世界給簡化了,在生產線上準確地模擬機器人比較容易,在擁擠的城市街道上模擬就困難得多了。
但即使是在模擬且簡化的環境裡,如西洋棋比賽,每一步都還是會引發一連串不同的機會與風險。因此,引導人工智慧在人造環境裡訓練自己,還不足以產生最佳表現,這訓練過程還需要回饋。
提供反饋和獎勵,可以讓人工智慧知道這個方法成功了。沒有人類可以有效勝任這個角色:人工智慧因為在數位處理器上運作,所以可以在數小時或數日之內就訓練自己幾百次、幾千次或幾十億次,人類提供的回饋相比之下根本不切實際。
軟體工程師將這種回饋功能自動化,謹慎精確地說明這些功能要如何操作,以及這些功能的本質是要模擬現實。理想情況下,模擬器會提供擬真的環境,回饋功能則會讓人工智慧做出有效的決定。
阿爾法元的模擬器就很簡單粗暴:對戰。阿爾法元為了評估自己的表現,運用獎勵功能,根據每一步創造的機會來評分。
增強式學習需要人類參與來創造人工智慧的訓練環境(儘管在訓練過程中不直接提供回饋):人類要定義模擬情境和回饋功能,人工智慧會在這基礎上自我訓練。為產生有意義的結果,謹慎明確地定義模擬情境和回饋功能至關重要。
——本文摘自《 AI 世代與我們的未來:人工智慧如何改變生活,甚至是世界?》,2022 年 12 月,聯經出版公司,未經同意請勿轉載。