另一種則是將含有數億個電晶體的密集晶片重新排列。就像人口密集的都會區都逐漸轉向「垂直城市」的發展模式。對晶片來說,雖然每個電晶體的大小還是一樣大,但是重新排列以後,不僅單位面積上可以堆疊更多的半導體電路,還能縮短這些區塊間資訊傳遞的時間,提升晶片的效能。這種透過晶片設計提高效能的方法,則稱為超越摩爾定律——More than Moore。
而 Intel® Core™ Ultra 處理器便是具備兩者優點的結晶。
圖/PanSci
Tile 架構:釋放多核心潛能
在超越摩爾定律方面,Intel® Core™ Ultra 處理器以其獨特的 Tile 架構而聞名,將 CPU、GPU、以及 AI 加速器(NPU)等不同單元分開,使得這些單元可以根據需求靈活啟用、停用,從而提高了能源效率。這一設計使得處理器可以更好地應對多任務處理,從日常應用到專業任務,都能夠以更高效的方式運行。
而 Foveros 3D 封裝技術是基於 EMIB 更進一步改良的封裝技術,它能將處理器、記憶體、IO 單元上下堆疊,垂直方向利用導線串聯,橫向則使用 EMIB 連接,提供高頻寬低延遲的數據傳輸。這種創新的封裝技術不僅使得處理器的整體尺寸更小,更提高了散熱效能,使得處理器可以長期高效運行。
運行 AI 模型的專用筆電——MSI Stealth 16 AI Studio
除了傳統的 CPU 和 GPU 之外,Intel® Core™ Ultra 處理器還整合了多種專用單元,專門用於在本機端高效運行 AI 模型。這使得使用者可以在不連接雲端的情況下,依然可以快速準確地運行各種複雜的 AI 算法,保護了數據隱私,同時節省了連接雲端算力的成本。
MSI 最新推出的筆電 Stealth 16 AI Studio ,搭載了最新的 Intel Core™ Ultra 9 處理器,是一款極具魅力的產品。不僅適合遊戲娛樂,其外觀設計結合了落質感外型與卓越效能,使得使用者在使用時能感受到高品質的工藝。鎂鋁合金質感的沉穩機身設計,僅重 1.99kg,厚度僅有 19.95mm,輕薄便攜,適合需要每天通勤的上班族,與在咖啡廳尋找靈感的創作者。
除了外觀設計之外, Stealth 16 AI Studio 也擁有出色的散熱性能。搭載了 Cooler Boost 5 強效散熱技術,能夠有效排除廢熱,保持長時間穩定高效能表現。良好的散熱表現不僅能夠確保處理器的效能得到充分發揮,還能幫助使用者在長時間使用下的保持舒適性和穩定性。
Stealth 16 AI Studio 的 Intel Core™ Ultra 處理器,其性能更是一大亮點。除了傳統的 CPU 和 GPU 之外,Intel Core™ Ultra 處理器還整合了多種專用單元,專門針對在本機端高效運行 AI 模型的需求。內建專為加速AI應用而設計的 NPU,更提供強大的效能表現,有助於提升效率並保持長時間的續航力。讓使用者可以在不連接雲端的情況下,依然可以快速準確地運行各種複雜的 AI 算法,保護了數據隱私,同時也節省了連接雲端算力的成本。
軟體方面,Intel 與眾多軟體開發商合作,針對 Intel 架構做了特別最佳化。與 Adobe 等軟體的合作使得使用者在處理影像、圖像等多媒體內容時,能夠以更高效的方式運行 AI 算法,大幅提高創作效率。獨家微星AI 智慧引擎能針對使用情境並自動調整硬體設定,以實現最佳效能表現。再加上獨家 AI Artist,更進一步提升使用者體驗,直接輕鬆生成豐富圖像,實現了更便捷的內容創作。
當前,像是企業、醫院、學校內部的伺服器,個人電腦,甚至手機等裝置,都可以成為「邊緣節點」。當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。簡單來說,就是將原本集中在遠端資料中心的運算能力,「搬家」到更靠近數據源頭的地方。
那麼,為什麼需要這樣做?資料放在雲端,集中管理不是更方便嗎?對,就是不好。
當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。/ 圖片來源:MotionArray
第一個不好是物理限制:「延遲」。 即使光速已經非常快,數據從你家旁邊的路口傳到幾千公里外的雲端機房,再把分析結果傳回來,中間還要經過各種網路節點轉來轉去…這樣一來一回,就算只是幾十毫秒的延遲,對於需要「即刻反應」的 AI 應用,比如說工廠裡要精密控制的機械手臂、或者自駕車要判斷路況時,每一毫秒都攸關安全與精度,這點延遲都是無法接受的!這是物理距離與網路架構先天上的限制,無法繞過去。
第三個挑戰:系統「可靠性」與「韌性」。 如果所有運算都仰賴遠端的雲端時,一旦網路不穩、甚至斷線,那怎麼辦?很多關鍵應用,像是公共安全監控或是重要設備的預警系統,可不能這樣「看天吃飯」啊!邊緣處理讓系統更獨立,就算暫時斷線,本地的 AI 還是能繼續運作與即時反應,這在工程上是非常重要的考量。 所以你看,邊緣運算不是科學家們沒事找事做,它是順應數據特性和實際應用需求,一個非常合理的科學與工程上的最佳化選擇,是我們想要抓住即時數據價值,非走不可的一條路!
邊緣 AI 的實戰魅力:從工廠到倉儲,再到你的工作桌
知道要把 AI 算力搬到邊緣了,接下來的問題就是─邊緣 AI 究竟強在哪裡呢?它強就強在能夠做到「深度感知(Deep Perception)」!
所謂深度感知,並非僅僅是對數據進行簡單的加加減減,而是透過如深度神經網路這類複雜的 AI 模型,從原始數據裡面,去「理解」出更高層次、更具意義的資訊。
以研華科技為例,旗下已有多項邊緣 AI 的實戰應用。以工業瑕疵檢測為例,利用物件偵測模型,快速將工業產品中的瑕疵挑出來,而且由於 AI 模型可以使用同一套參數去檢測,因此品管上能達到一致性,減少人為疏漏。尤其在高產能工廠中,檢測速度必須快、狠、準。研華這套 AI 系統每分鐘最高可處理 8,000 件產品,替工廠節省大量人力,同時確保品質穩定。這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。
這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。/ 圖片提供:研華科技
此外,在智慧倉儲場域,研華與威剛合作,研華與威剛聯手合作,在 MIC-732AO 伺服器上搭載輝達的 Nova Orin 開發平台,打造倉儲系統的 AMR(Autonomous Mobile Robot) 自走車。這跟過去在倉儲系統中使用的自動導引車 AGV 技術不一樣,AMR 不需要事先規劃好路線,靠著感測器偵測,就能輕鬆避開障礙物,識別路線,並且將貨物載到指定地點存放。
當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。/ 圖片來源:MotionArray
模型剪枝(Model Pruning)—基於重要性的結構精簡
建立一個 AI 模型,其實就是在搭建一整套類神經網路系統,並訓練類神經元中彼此關聯的參數。然而,在這麼多參數中,總會有一些參數明明佔了一個位置,卻對整體模型沒有貢獻。既然如此,不如果斷將這些「冗餘」移除。
這就像種植作物的時候,總會雜草叢生,但這些雜草並不是我們想要的作物,這時候我們就會動手清理雜草。在語言模型中也會有這樣的雜草存在,而動手去清理這些不需要的連結參數或神經元的技術,就稱為 AI 模型的模型剪枝(Model Pruning)。
模型剪枝的效果,大概能把100變成70這樣的程度,說多也不是太多。雖然這樣的縮減對於提升效率已具幫助,但若我們要的是一個更小幾個數量級的模型,僅靠剪枝仍不足以應對。最後還是需要從源頭著手,採取更治本的方法:一開始就打造一個很小的模型,並讓它去學習大模型的知識。這項技術被稱為「知識蒸餾」,是目前 AI 模型壓縮領域中最具潛力的方法之一。
知識蒸餾(Knowledge Distillation)—讓小模型學習大師的「精髓」
想像一下,一位經驗豐富、見多識廣的老師傅,就是那個龐大而強悍的 AI 模型。現在,他要培養一位年輕學徒—小型 AI 模型。與其只是告訴小型模型正確答案,老師傅 (大模型) 會更直接傳授他做判斷時的「思考過程」跟「眉角」,例如「為什麼我會這樣想?」、「其他選項的可能性有多少?」。這樣一來,小小的學徒模型,用它有限的「腦容量」,也能學到老師傅的「智慧精髓」,表現就能大幅提升!這是一種很高級的訓練技巧,跟遷移學習有關。
但是!即使模型經過了這些科學方法的優化,變得比較「苗條」了,要真正在邊緣環境中處理如潮水般湧現的資料,並且高速、即時、穩定地運作,仍然需要一個夠強的「引擎」來驅動它們。也就是說,要把這些經過科學千錘百鍊、但依然需要大量計算的 AI 模型,真正放到邊緣的現場去發揮作用,就需要一個強大的「硬體平台」來承載。
邊緣 AI 的強心臟:SKY-602E3 的三大關鍵
像研華的 SKY-602E3 塔式 GPU 伺服器,就是扮演「邊緣 AI 引擎」的關鍵角色!那麼,它到底厲害在哪?
三、可靠性 SKY-602E3 用的是伺服器等級的主機板、ECC 糾錯記憶體、還有備援電源供應器等等。這些聽起來很硬的規格,背後代表的是嚴謹的工程可靠性設計。畢竟在邊緣現場,系統穩定壓倒一切!你總不希望 AI 分析跑到一半就掛掉吧?這些設計確保了部署在現場的 AI 系統,能夠長時間、穩定地運作,把實驗室裡的科學成果,可靠地轉化成實際的應用價值。
研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。/ 圖片提供:研華科技
事實上不是金錢,而是 IBM 的官僚及各部門之明爭暗鬥扼殺了其個人電腦的發展。因此洛比爾挑選了一位謙虛、穿牛仔靴、完全不符合 IBM 形象、幾乎被 IBM 踢出大門的 43 歲中階管理「菁英」伊斯基(Philip Donald Estridge)。既然有太上皇令箭,伊斯基就大膽地、毫無顧忌地違反所有 IBM 的規則去推進洛比爾的項目。基於過去失敗的經驗,為了避免內部不停的干擾,及像他人在個人電腦市場上花費兩三年的時間,伊斯基決定選擇開放式架構和現成元件,在 IBM 外部購買操作系统軟體和幾乎所有的硬體零件。當 IBM 個人電腦於 1981 年問世,1982 年和 1983 年真正開始流行時,IBM的收入開始起飛:從 1981 年的 290 億美元增加到 1984 年的 460 億美元;股票市值在 1984 年底達到約 720 億美元,為當時全球最值錢及最賺錢的公司。在《財星》雜誌的美國企業年度調查中,IBM 成為最受敬佩的公司。
IBM 個人電腦。
當初領導一個只有 14 人的「臭鼬工廠」團隊,竟然開發出了 IBM PC 產業,伊斯基「瞬間」成為個人電腦界名人,被稱為「IBM PC 之父」,出現在各主流雜誌和報紙上,好像他就是 IBM;儘管外界不停地挖角,他都以「在 IBM 工作」為榮拒絕(註三)。但在 IBM 內部,伊斯基則成為高階主管既羨慕、又嫉妒、又恨的對象,於 1985 年年初表面上將他「提升」為製造副總,負責監督全球所有製造業務,但實際上是沒大權責的貶職;伊斯基私下向親友表示不懂為什麼會被打下來,也因此曾經想離開 IBM(註四)。正方興未艾的個人電腦事業則不再獨立、被歸入稱為「入門級系統」的公司部門編制,由伊斯基以前的老闆、IBM 官僚體系內的洛比爾接管。
英特爾的興起
相信大部分讀者都已經知道,伊斯基決定在 IBM 外部購買操作系统軟體和幾乎所有的硬體零件的最大幸運受惠者是:前者是微軟公司(Microsoft Corp.),後者就是本文的主角英特爾。但如果僅此,英特爾可能將永遠只是活在 IBM 陰影下的零件供應商而已。
(註二)英特爾的微處理器事實上是一「中央處理器」(Central Processor Unit,CPU)。微處理器和 CPU 的相似之處多於不同之處。事實上,所有 CPU 都是微處理器,但並非所有微處理器都是 CPU。兩者之間的主要區別在於它們在電腦系統中的功能和用途。CPU 是一種具有多種角色的處理器;而微處理器通常僅負責一項特定任務,能夠非常出色地完成該任務。CPU 向微處理器發出指令,微處理器依令將資料傳送到 CPU 或 CPU 指定的其它元件。微處理器的任務是執行特定且可重複的操作,而 CPU 的任務則是執行廣泛且多樣化的任務。如果將 CPU 比喻成電腦中的大腦,那麼身體的腿和手將成為微處理器的區域。
你有沒有想過,當 AI 根據病歷與 X 光片就能幫你診斷病症,或者決定是否批准貸款,甚至從無人機發射飛彈時,它的每一步「決策」是怎麼來的?如果我們不能知道 AI 的每一個想法步驟,對於那些 AI 輔助的診斷和判斷,要我們如何放心呢?
馬斯克與 OpenAI 的奧特曼鬧翻後,創立了新 AI 公司 xAI,並推出名為 Grok 的產品。他宣稱目標是以開源和可解釋性 AI 挑戰其他模型,而 xAI 另一個意思是 Explainable AI 也就是「可解釋性 AI」。
如今,AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?
AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?圖/pexels
黑盒子模型背後的隱藏秘密
無法解釋的 AI 究竟會帶來多少問題?試想,現在許多銀行和貸款機構已經使用 AI 評估借貸申請者的信用風險,但這些模型往往如同黑箱操作。有人貸款被拒,卻完全不知原因,感覺就像被分手卻不告訴理由。更嚴重的是,AI 可能擅自根據你的住所位置或社會經濟背景給出負面評價,這些與信用風險真的相關嗎?這種不透明性只會讓弱勢群體更難融入金融體系,加劇貧富差距。這種不透明性,會讓原本就已經很難融入金融體系的弱勢群體,更加難以取得貸款,讓貧富差距越來越大,雪上加霜。
AI 不僅影響貸款,還可能影響司法公正性。美國部分法院自 2016 年起使用「替代性制裁犯罪矯正管理剖析軟體」 COMPAS 這款 AI 工具來協助量刑,試圖預測嫌犯再犯風險。然而,這些工具被發現對有色人種特別不友好,往往給出偏高的再犯風險評估,導致更重的刑罰和更嚴苛的保釋條件。更令人擔憂的是,這些決策缺乏透明度,AI 做出的決策根本沒法解釋,這讓嫌犯和律師無法查明問題根源,結果司法公正性就這麼被悄悄削弱了。
此外,AI 在醫療、社交媒體、自駕車等領域的應用,也充滿類似挑戰。例如,AI 協助診斷疾病,但若原因報告無法被解釋,醫生和患者又怎能放心?同樣地,社群媒體或是 YouTube 已經大量使用 AI 自動審查,以及智慧家居或工廠中的黑盒子問題,都像是一場越來越複雜的魔術秀——我們只看到結果,卻無法理解過程。這樣的情況下,對 AI 的信任感就成為了一個巨大的挑戰。
其次,深度學習模型會會從資料中學習某些「特徵」,你可以當作 AI 是用畫重點的方式在學習,人類劃重點目的是幫助我們加速理解。AI 的特徵雖然也能幫助 AI 學習,但這些特徵往往對人類來說過於抽象。例如在影像辨識中,人類習慣用眼睛、嘴巴的相對位置,或是手指數量等特徵來解讀一張圖。深度學習模型卻可能會學習到一些抽象的形狀或紋理特徵,而這些特徵難以用人類語言描述。
深度學習模型通常採用分佈式表示(Distributed Representation)來編碼特徵,意思是將一個特徵表示為一個高維向量,每個維度代表特徵的不同方面。假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。對 AI 而言,這是理解世界的方式,但對人類來說,卻如同墨跡測驗般難以解讀。
首先,可以利用熱圖(heatmap)或注意力圖這類可視化技術,讓 AI 的「思維」有跡可循。這就像行銷中分析消費者的視線停留在哪裡,來推測他們的興趣一樣。在卷積神經網絡和 Diffusion Models 中 ,當 AI 判斷這張照片裡是「貓」還是「狗」時,我需要它向我們展示在哪些地方「盯得最緊」,像是耳朵的形狀還是毛色的分布。
以實際的情景來說,SHAP 可以讓 AI 診斷出你有某種疾病風險時,指出年齡、體重等各個特徵的影響。
LIME 的運作方式則有些不同,會針對單一個案建立一個簡單的模型,來近似原始複雜模型的行為,目的是為了快速了解「局部」範圍內的操作。比如當 AI 拒絕你的貸款申請時,LIME 可以解釋是「收入不穩定」還是「信用紀錄有問題」導致拒絕。這種解釋在 Transformer 和 NLP 應用中廣泛使用,一大優勢是靈活且計算速度快,適合臨時分析不同情境下的 AI 判斷。比方說在醫療場景,LIME 可以幫助醫生理解 AI 為何推薦某種治療方案,並說明幾個主要原因,這樣醫生不僅能更快做出決策,也能增加患者的信任感。
第三是反事實解釋:如果改變一點點,會怎麼樣?
如果 AI 告訴你:「這家銀行不會貸款給你」,這時你可能會想知道:是收入不夠,還是年齡因素?這時你就可以問 AI:「如果我年輕五歲,或者多一份工作,結果會怎樣?」反事實解釋會模擬這些變化對結果的影響,讓我們可以了解模型究竟是如何「權衡利弊」。