Alex “Sandy” Pentland 教授再舉例,若在地圖看到 GPS 人流移動到了城郊某一地帶就停止,傳達的資訊是:當大多數人停止前往該區,代表該區容易有犯罪活動。並另以北京的資料指出,若當地的交通網絡完善、社群流動越密集,未來三年該區的經濟成長機率也偏高。這些社群行動觀察,有助於城市規劃與犯罪防治,而且運用的資料無須涉及記名資訊。
社群範圍也能縮小到公司。 Alex “Sandy” Pentland 團隊與美國銀行(Bank of America)的電話客服中心合作,實驗若客服員之間有越多的想法交流,是否能降低每通客服電話的處理時間。分析結果發現,比起客服員逐一單獨休息,讓整個客服團隊一起休息更好,因為有助增進團隊間的交談、交流工作竅門,讓處理客服電話的平均時間大幅降低。
從工人智慧到人工智慧,期待又怕受傷害
不是每個戀曲,都有美好回憶。而 Google 臺灣董事總經理簡立峰,在人工智慧跨域領袖營中提到,不是每個問題都適合用 AI 解決。圖/張語辰
適合發展 AI 的是「有特定知識」、「行為可預測」的領域,並且應善用「原本就有的資料」,例如臺灣累積豐富的醫學影像,這些影像透過機器學習就能轉換為知識,而非從頭開發網站,去蒐集新的使用者資料。
在 Google 有幾萬名工程師在進行幾千項專案,各種領域都有人嘗試,甚至包含用影像辨識判斷正在飛行是不是母蚊,是的話就擊殺,藉此來斷絕蚊子成為疾病傳染源。簡立峰分享, Google 若進行 5000 項 AI 專案,最後證實有用的不到 10 項,實作後會發現論文演算法講得頭頭是道,但實作後好像不是這回事,許多參數調不出來。
然而,這些過程不是白費。 Google 從這些專案裡的工程師選出 50 位較富經驗者、組成顧問團,再引導大家嘗試各種 AI 專案,而前提是要建立開源文化,開放讓所有員工自由修改程式碼,應用在自己的專案中。
臺灣的組織化領導,讓軟體高手沒有發揮空間,就算有神字輩也只是當兵用。
許多人會好奇,為什麼 Google 軟體開發這麼厲害?簡立峰提到,臺灣生產「硬體」的組織結構,是將軍關在辦公室,帶領生產線的幾千名士兵,一起完成最後的產品。「軟體」的思維要倒過來,Google 採取「有將軍沒有兵」的模式,人人都是將軍,讓神人站上第一線寫程式,自己 debug 解決問題。
「 AI 是當紅的產業趨勢,但我的小孩不是讀這個領域的怎麼辦?」在演講中,一位中年父親提出許多家長會有的疑問。
在 AI 時代,科學可以突破百分之八九十,但最後一哩路比想像中難度更高。哪裡熱門、大家都趨之若鶩,即使可能史上最大的失敗就在眼前。這是出去闖的孩子會面對的問題。簡立峰提到,臺灣可以參考以色列的產業策略,弱水三千只取一瓢飲,著重發展大市場需要的尖端技術,例如臺灣的鏡頭技術世界知名,就有更多優勢延伸發展電腦視覺領域。
從古至今,地圖視角會影響思維。簡立峰提到,若換個角度看臺灣,別忘了日本、南韓、新加坡、東南亞就在附近,許多 AI 合作機會就在臺灣旁邊。圖/Google 地圖
而若不在 AI 領域,留下來的孩子,則應跟臺灣土地有所連結,發展他國取代不了、有信賴感的產業:例如醫療、食品、農業,讓在外面闖的孩子無論什麼時候回家,都能感受到在地文化、安心踏實。
學界與產業離很遠?創造一個機會齊動腦!
2017 年政府宣示「臺灣 AI 元年」即刻開始,但要落實到業界尚有層層挑戰。為此,科技部與中研院舉辦五天四夜的密集研習,向國內外講師借智慧、聚集學員間的意念流,來討論各產業要懂哪些 AI 先備知識、遇到的問題如何解決。
1990 年,融合蛋白 CD4 免疫黏附素(CD4 immunoadhesin)誕生。這項設計,是為了對付令人類聞風喪膽的 HIV 病毒。
-----廣告,請繼續往下閱讀-----
我們知道 T 細胞是人體中一種非常重要的白血球。在這些 T 細胞中,大約有六到七成表面帶有一個叫做「CD4」的輔助受體。CD4 會和另一個受體 TCR 一起合作,幫助 T 細胞辨識其他細胞表面的抗原片段,等於是 T 細胞用來辨認壞人的「探測器」。表面擁有 CD4 受體的淋巴球,就稱為 CD4 淋巴球。
麻煩的來了。 HIV 病毒反將一軍,竟然把 T 細胞的 CD4 探測器,當成了自己辨識獵物的「標記」。沒錯,對 HIV 病毒來說,免疫細胞就是它的獵物。HIV 的表面有一種叫做 gp120 的蛋白,會主動去抓住 T 細胞上的 CD4 受體。
而另一端的 Fc 區域則有兩個重要作用:一是延長融合蛋白在體內的存活時間;二是理論上能掛上「這裡有敵人!」的標籤,這種機制稱為抗體依賴性細胞毒殺(ADCC)或免疫吞噬作用(ADCP)。當免疫細胞的 Fc 受體與 Fc 區域結合,就能促使免疫細胞清除被黏住的病毒顆粒。
不過,這裡有個關鍵細節。
在實際設計中,CD4免疫黏附素的 Fc 片段通常會關閉「吸引免疫細胞」的這個技能。原因是:HIV 專門攻擊的就是免疫細胞本身,許多病毒甚至已經藏在 CD4 細胞裡。若 Fc 區域過於活躍,反而可能引發強烈的發炎反應,甚至讓免疫系統錯把帶有病毒碎片的健康細胞也一併攻擊,這樣副作用太大。因此,CD4 免疫黏附素的 Fc 區域會加入特定突變,讓它只保留延長藥物壽命的功能,而不會與淋巴球的 Fc 受體結合,以避免誘發免疫反應。
從 DNA 藍圖到生物積木:融合蛋白的設計巧思
融合蛋白雖然潛力強大,但要製造出來可一點都不簡單。它並不是用膠水把兩段蛋白質黏在一起就好。「融合」這件事,得從最根本的設計圖,也就是 DNA 序列就開始規劃。
我們體內的大部分蛋白質,都是細胞照著 DNA 上的指令一步步合成的。所以,如果科學家想把蛋白 A 和蛋白 B 接在一起,就得先把這兩段基因找出來,然後再「拼」成一段新的 DNA。
你有沒有想過,當 AI 根據病歷與 X 光片就能幫你診斷病症,或者決定是否批准貸款,甚至從無人機發射飛彈時,它的每一步「決策」是怎麼來的?如果我們不能知道 AI 的每一個想法步驟,對於那些 AI 輔助的診斷和判斷,要我們如何放心呢?
馬斯克與 OpenAI 的奧特曼鬧翻後,創立了新 AI 公司 xAI,並推出名為 Grok 的產品。他宣稱目標是以開源和可解釋性 AI 挑戰其他模型,而 xAI 另一個意思是 Explainable AI 也就是「可解釋性 AI」。
如今,AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?
-----廣告,請繼續往下閱讀-----
AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?圖/pexels
黑盒子模型背後的隱藏秘密
無法解釋的 AI 究竟會帶來多少問題?試想,現在許多銀行和貸款機構已經使用 AI 評估借貸申請者的信用風險,但這些模型往往如同黑箱操作。有人貸款被拒,卻完全不知原因,感覺就像被分手卻不告訴理由。更嚴重的是,AI 可能擅自根據你的住所位置或社會經濟背景給出負面評價,這些與信用風險真的相關嗎?這種不透明性只會讓弱勢群體更難融入金融體系,加劇貧富差距。這種不透明性,會讓原本就已經很難融入金融體系的弱勢群體,更加難以取得貸款,讓貧富差距越來越大,雪上加霜。
AI 不僅影響貸款,還可能影響司法公正性。美國部分法院自 2016 年起使用「替代性制裁犯罪矯正管理剖析軟體」 COMPAS 這款 AI 工具來協助量刑,試圖預測嫌犯再犯風險。然而,這些工具被發現對有色人種特別不友好,往往給出偏高的再犯風險評估,導致更重的刑罰和更嚴苛的保釋條件。更令人擔憂的是,這些決策缺乏透明度,AI 做出的決策根本沒法解釋,這讓嫌犯和律師無法查明問題根源,結果司法公正性就這麼被悄悄削弱了。
此外,AI 在醫療、社交媒體、自駕車等領域的應用,也充滿類似挑戰。例如,AI 協助診斷疾病,但若原因報告無法被解釋,醫生和患者又怎能放心?同樣地,社群媒體或是 YouTube 已經大量使用 AI 自動審查,以及智慧家居或工廠中的黑盒子問題,都像是一場越來越複雜的魔術秀——我們只看到結果,卻無法理解過程。這樣的情況下,對 AI 的信任感就成為了一個巨大的挑戰。
其次,深度學習模型會會從資料中學習某些「特徵」,你可以當作 AI 是用畫重點的方式在學習,人類劃重點目的是幫助我們加速理解。AI 的特徵雖然也能幫助 AI 學習,但這些特徵往往對人類來說過於抽象。例如在影像辨識中,人類習慣用眼睛、嘴巴的相對位置,或是手指數量等特徵來解讀一張圖。深度學習模型卻可能會學習到一些抽象的形狀或紋理特徵,而這些特徵難以用人類語言描述。
深度學習模型通常採用分佈式表示(Distributed Representation)來編碼特徵,意思是將一個特徵表示為一個高維向量,每個維度代表特徵的不同方面。假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。對 AI 而言,這是理解世界的方式,但對人類來說,卻如同墨跡測驗般難以解讀。
首先,可以利用熱圖(heatmap)或注意力圖這類可視化技術,讓 AI 的「思維」有跡可循。這就像行銷中分析消費者的視線停留在哪裡,來推測他們的興趣一樣。在卷積神經網絡和 Diffusion Models 中 ,當 AI 判斷這張照片裡是「貓」還是「狗」時,我需要它向我們展示在哪些地方「盯得最緊」,像是耳朵的形狀還是毛色的分布。
以實際的情景來說,SHAP 可以讓 AI 診斷出你有某種疾病風險時,指出年齡、體重等各個特徵的影響。
LIME 的運作方式則有些不同,會針對單一個案建立一個簡單的模型,來近似原始複雜模型的行為,目的是為了快速了解「局部」範圍內的操作。比如當 AI 拒絕你的貸款申請時,LIME 可以解釋是「收入不穩定」還是「信用紀錄有問題」導致拒絕。這種解釋在 Transformer 和 NLP 應用中廣泛使用,一大優勢是靈活且計算速度快,適合臨時分析不同情境下的 AI 判斷。比方說在醫療場景,LIME 可以幫助醫生理解 AI 為何推薦某種治療方案,並說明幾個主要原因,這樣醫生不僅能更快做出決策,也能增加患者的信任感。
-----廣告,請繼續往下閱讀-----
第三是反事實解釋:如果改變一點點,會怎麼樣?
如果 AI 告訴你:「這家銀行不會貸款給你」,這時你可能會想知道:是收入不夠,還是年齡因素?這時你就可以問 AI:「如果我年輕五歲,或者多一份工作,結果會怎樣?」反事實解釋會模擬這些變化對結果的影響,讓我們可以了解模型究竟是如何「權衡利弊」。