根據哈柏太空望遠鏡(Hubble Space Telescope)的宇宙起源光譜儀(Cosmic Origins Spectrograph)觀測資料,美國聖母大學(University of Notre Dame)Nicolas Lehner和Christopher Howk首度測量了快速移動的離子氣體雲的距離,並發現這些快速移動的雲氣位在這些氣體雲之所以能被辨認並研究,是因為星雲中的元素會吸收一部份遠方恆星的星光,而在星光光譜中留下可供辨認氣體性質的指紋印記。天文學家先前通常利用類星體(quasar)的星光來研究這些快速移動離子氣體雲,但由於類星體太遠了,因而無法確認雲團真實位置。為了解決這個問題,Lehner等人利用哈柏觀察銀河系中已知距離的27顆恆星的星光,其中一半以上的恆星顯示明顯的離子氣體訊號,確認銀暈中存有大量離子雲,距離地球約為一倍銀河系半徑以內,也就是在約40,000光年之內。這個研究成果比之前用類星體的方式好太多了。銀河系外緣,所含有的氣體量非常龐大,意味著在銀暈和星系際空間中有大量的離子氣體儲存庫,銀河系過去數十億年來的新恆星製造工作就是靠這些氣體的供給而完成的。
你有沒有想過,當 AI 根據病歷與 X 光片就能幫你診斷病症,或者決定是否批准貸款,甚至從無人機發射飛彈時,它的每一步「決策」是怎麼來的?如果我們不能知道 AI 的每一個想法步驟,對於那些 AI 輔助的診斷和判斷,要我們如何放心呢?
馬斯克與 OpenAI 的奧特曼鬧翻後,創立了新 AI 公司 xAI,並推出名為 Grok 的產品。他宣稱目標是以開源和可解釋性 AI 挑戰其他模型,而 xAI 另一個意思是 Explainable AI 也就是「可解釋性 AI」。
如今,AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?
-----廣告,請繼續往下閱讀-----
黑盒子模型背後的隱藏秘密
無法解釋的 AI 究竟會帶來多少問題?試想,現在許多銀行和貸款機構已經使用 AI 評估借貸申請者的信用風險,但這些模型往往如同黑箱操作。有人貸款被拒,卻完全不知原因,感覺就像被分手卻不告訴理由。更嚴重的是,AI 可能擅自根據你的住所位置或社會經濟背景給出負面評價,這些與信用風險真的相關嗎?這種不透明性只會讓弱勢群體更難融入金融體系,加劇貧富差距。這種不透明性,會讓原本就已經很難融入金融體系的弱勢群體,更加難以取得貸款,讓貧富差距越來越大,雪上加霜。
AI 不僅影響貸款,還可能影響司法公正性。美國部分法院自 2016 年起使用「替代性制裁犯罪矯正管理剖析軟體」 COMPAS 這款 AI 工具來協助量刑,試圖預測嫌犯再犯風險。然而,這些工具被發現對有色人種特別不友好,往往給出偏高的再犯風險評估,導致更重的刑罰和更嚴苛的保釋條件。更令人擔憂的是,這些決策缺乏透明度,AI 做出的決策根本沒法解釋,這讓嫌犯和律師無法查明問題根源,結果司法公正性就這麼被悄悄削弱了。
此外,AI 在醫療、社交媒體、自駕車等領域的應用,也充滿類似挑戰。例如,AI 協助診斷疾病,但若原因報告無法被解釋,醫生和患者又怎能放心?同樣地,社群媒體或是 YouTube 已經大量使用 AI 自動審查,以及智慧家居或工廠中的黑盒子問題,都像是一場越來越複雜的魔術秀——我們只看到結果,卻無法理解過程。這樣的情況下,對 AI 的信任感就成為了一個巨大的挑戰。
其次,深度學習模型會會從資料中學習某些「特徵」,你可以當作 AI 是用畫重點的方式在學習,人類劃重點目的是幫助我們加速理解。AI 的特徵雖然也能幫助 AI 學習,但這些特徵往往對人類來說過於抽象。例如在影像辨識中,人類習慣用眼睛、嘴巴的相對位置,或是手指數量等特徵來解讀一張圖。深度學習模型卻可能會學習到一些抽象的形狀或紋理特徵,而這些特徵難以用人類語言描述。
深度學習模型通常採用分佈式表示(Distributed Representation)來編碼特徵,意思是將一個特徵表示為一個高維向量,每個維度代表特徵的不同方面。假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。對 AI 而言,這是理解世界的方式,但對人類來說,卻如同墨跡測驗般難以解讀。
首先,可以利用熱圖(heatmap)或注意力圖這類可視化技術,讓 AI 的「思維」有跡可循。這就像行銷中分析消費者的視線停留在哪裡,來推測他們的興趣一樣。在卷積神經網絡和 Diffusion Models 中 ,當 AI 判斷這張照片裡是「貓」還是「狗」時,我需要它向我們展示在哪些地方「盯得最緊」,像是耳朵的形狀還是毛色的分布。
以實際的情景來說,SHAP 可以讓 AI 診斷出你有某種疾病風險時,指出年齡、體重等各個特徵的影響。
LIME 的運作方式則有些不同,會針對單一個案建立一個簡單的模型,來近似原始複雜模型的行為,目的是為了快速了解「局部」範圍內的操作。比如當 AI 拒絕你的貸款申請時,LIME 可以解釋是「收入不穩定」還是「信用紀錄有問題」導致拒絕。這種解釋在 Transformer 和 NLP 應用中廣泛使用,一大優勢是靈活且計算速度快,適合臨時分析不同情境下的 AI 判斷。比方說在醫療場景,LIME 可以幫助醫生理解 AI 為何推薦某種治療方案,並說明幾個主要原因,這樣醫生不僅能更快做出決策,也能增加患者的信任感。
-----廣告,請繼續往下閱讀-----
第三是反事實解釋:如果改變一點點,會怎麼樣?
如果 AI 告訴你:「這家銀行不會貸款給你」,這時你可能會想知道:是收入不夠,還是年齡因素?這時你就可以問 AI:「如果我年輕五歲,或者多一份工作,結果會怎樣?」反事實解釋會模擬這些變化對結果的影響,讓我們可以了解模型究竟是如何「權衡利弊」。
北落師門殘屑盤的觀測始於 1983 年。當時,美國國家航空暨太空總署(National Aeronautics and Space Administration, NASA)的紅外線天文衛星(Infrared Astronomical Satellite, IRAS)發現北落師門在紅外線波段的亮度異常高,代表周圍很可能有殘屑盤圍繞。由於北落師門離地球僅約 25 光年,這項發現引起眾多天文學家的關注,並在未來數十年前仆後繼地拿出各波段最好的望遠鏡,希望藉此深入了解殘屑盤的特性。其中,哈伯太空望遠鏡(Hubble Space Telescope, HST,簡稱哈伯望遠鏡)、阿塔卡瑪大型毫米及次毫米波陣列(Atacama Large Millimeter/submillimeter Array, ALMA)與韋伯望遠鏡擁有非常好的空間解析度,因此能夠清楚地觀測殘屑盤的結構。
● 哈伯的觀測
2008 年, NASA 公布哈伯望遠鏡在 2004 與 2006 年對北落師門的觀測結果(圖三),讓天文學家首次清晰地看到北落師門殘屑盤的影像。這張照片是哈伯望遠鏡以日冕儀(coronagraph)在 600 奈米(nm)的可見光波段下拍攝,中間的白點代表北落師門的位置,而周圍的環狀亮帶正是因散射的北落師門星光而發亮的殘屑盤,放射狀的條紋則是日冕儀沒能完全消除的恆星散射光。除此之外,天文學家還發現有一個亮點正圍繞著北落師門運行,並認為此亮點可能是一顆圍繞北落師門的行星,於是將它命名為「北落師門 b 」。很可惜在往後的觀測中,天文學家發現北落師門 b 漸漸膨脹消散,到 2014 年時就已經完全看不見了。因此它很可能只是一團塵埃,而非真正的行星。
● ALMA 的觀測
ALMA 對北落師門的完整觀測於 2017 年亮相,他們展示出更加清晰漂亮的環狀結構,且位置與哈伯望遠鏡的觀測吻合。正如前面提到,殘屑盤中的塵埃溫度愈低,放出的輻射波長就愈長。因此 ALMA 在 1.3 毫米(mm)波段觀測到的影像,主要來自離殘屑盤中恆星最遠、最冷的部分。
最後,在類古柏帶環與內側殘屑盤之間,還存在著一個半長軸約 104 AU 的「中間環」,在太陽系中則沒有對應的結構,這項新發現也需要進一步的研究來了解它的來源。
此外,雖然北落師門 b 最終被證實並不是一顆行星,但這並不代表北落師門旁沒有行星環繞。最初,殘屑盤的形成原因是由小行星等天體不斷碰撞所產生,經過不斷地碰撞合併,其實就有可能已經產生直徑數百到數千公里的行星。從北落師門的殘屑盤還可以推論,在內側殘屑盤與中間環之間可能有一顆海王星質量以上的行星,它就像鏟雪車般清除軌道上的塵埃,從而產生「內側裂縫」(inner gap)的結構。
Galicher, R. et al. (2013). Fomalhaut b: Independent analysis of the Hubble space telescope public archive data. The Astrophysical Journal, 769(1), 42.
MacGregor, M. A. et al. (2017). A complete ALMA map of the Fomalhaut debris disk. The Astrophysical Journal, 842(1), 8.
Gáspár, A. et al. (2023). Spatially resolved imaging of the inner Fomalhaut disk using JWST/MIRI. Nature Astronomy, 1–9.