Loading [MathJax]/extensions/tex2jax.js

0

32
4

文字

分享

0
32
4

人海中注意你的聲音、喧鬧中聽見我的名字:認識雞尾酒會效應

雅文兒童聽語文教基金會_96
・2021/05/24 ・3028字 ・閱讀時間約 6 分鐘

-----廣告,請繼續往下閱讀-----

  • 文 / 李翊瑞|雅文基金會聽語科學研究中心研究助理

在一場雞尾酒會上,有著豐盛的佳餚,以及來自四面八方的賓客。你與三五好友們正享受著派對的氣氛,開心地閒聊彼此的生活。儘管環境中充滿各式各樣的聲音—空調運行的風聲、會場的背景音樂、以及隔壁桌的談笑聲,似乎一點也不打斷你們之間交談的樂趣。然而,當你正專注地和眼前的朋友聊天,並聊得渾然忘我時,另一位好友在遠方呼喚你的名字,你卻能馬上回過頭去尋找聲音的來源,究竟是怎麼辦到的呢?

身處在派對的吵雜的環境中,我們卻能盡情地與朋友們把酒言歡,彷彿一點也不受干擾。圖/Pexels

左耳進,左耳出?雞尾酒會效應的發現

前面所提到的現象稱為雞尾酒會效應(cocktail-party effect),指的是在環境中其他對話或噪音干擾的情況下,選擇性聆聽特定聲音的能力[1]。雞尾酒會效應最早是由英國認知科學家 Colin Cherry 於 1953 年提出[2],有趣的是,Cherry 在進行研究時,並沒有舉辦或者參加了很多場雞尾酒會,而是設計了一項名為跟讀(shadowing)的實驗。

在跟讀實驗中,受試者會載上耳機,左耳及右耳會聽到完全不同的句子,且聽到的當下必須馬上複誦其中一耳所聽到的內容。例如當被要求複誦「右耳」所聽到的內容,而左耳聽到「在她的野餐籃裡,有著花生醬、三明治……」,右耳聽到「有隻小貓正在追著老鼠…」時,受試者就必須即時回答「有隻小貓正在追著老鼠……」。實驗結果發現[2],多數的受試者都能正確跟讀某一耳所聽到的語句,並忽略另一耳的訊息,顯示注意力(attention)似乎能選擇性地投入某個事物上。

在跟讀實驗裡,雙耳會分別呈現不同的訊息,而受試者必須注意聆聽並覆誦其中一隻耳朵聽到的內容。圖/雅文基金會

是誰在呼喚我?刻在心底的名字

然而,當受試者正聚精會神地聆聽與複誦右耳的句子時,未受注意的左耳所聽到的內容,真的就如同耳邊風一樣,完全沒有進入大腦的處理歷程嗎?其實,有部分的訊息依然可以被我們的大腦所處理。

-----廣告,請繼續往下閱讀-----

在剛剛所提到的實驗中,Cherry 指出受試者雖然很難回答出未受注意一耳的語句內容,卻能察覺到訊息在語音性質上的變化—像是從句子變成單音,或是從男性的聲音變成女性的聲音[2]。更特別的是,後續研究發現當未受注意的一耳出現自己的名字時,受試者也能即時察覺,並將注意力轉移到原本未受注意的一耳[3]。而這種聽到自己名字的現象不僅出現在成人,甚至在五個多月大的嬰兒身上就能觀察到[4]

聽覺注意力的調節水閥,訊息被減弱但不消失

即使我們特別去注意某些訊息,並忽略環境中的其他刺激,仍然有部分訊息會被大腦所處理。不論是前面所提到的語音性質變化、或是自己的名字,雞尾酒會效應顯示了訊息的處理似乎不是依循全有或全無的原則(all-or-none law):接收應注意的訊息,並過濾或排除掉所有不需注意的訊息。

為了進一步解釋此現象,英國心理學家 Anne Treisman 提出了注意力的減弱模型(attenuation model[5,6]—這個模型主張注意力系統分為四個階段:感官收錄(sensory register)、減弱控制(attenuation control)、知覺歷程(perceptual process)和短期記憶(short-term memory),其中最特別的就是「減弱控制」這個部分。

減弱控制就像是調節訊息的水閥,那些未受注意的訊息,由於和當下正在進行的任務無關(如跟讀作業),而轉為減弱的狀態存在於系統中。最後,被減弱的訊息會進入短期記憶,再依據各個訊息的閾值(threshold)高低而被受試者察覺。閾值可以想像成是個門檻,不同的訊息有不同的門檻,而門檻越低越容易被覺察。像是自己的名字由於閾值較低,因此我們很容易就能注意到;相反的,一些不常聽到的字詞,因為閾值較高而較難被察覺[6]

-----廣告,請繼續往下閱讀-----
在 Treisman 的減弱模型中,未受注意的訊息以「減弱」的狀態存在,而非完全被注意力系統排除。圖/Sternberg et al., 2012

用對方法,背景噪音不干擾

「對不起,你剛說什麼?」、「麻煩你說大聲一點」在日常生活中,是不是常常聽到這些話呢?當環境中充斥著各種噪音時,我們能不能主動採取一些策略,讓對方的聲音變得更清楚呢?假如你正打算參加一場派對、或是到一間人聲嘈雜的餐廳,以下三個方法將更有助於你把注意力焦點放在眼前的對話,而不被環境的噪音輕易打斷[1,7]

  1. 留意目標聲音的特性

留意目標說話者一些明顯的聲音特性(像是阿霞有煙嗓,聲音低沉充滿磁性,講話慢慢的),能有效降低鄰近對話內容的干擾。

  1. 提升對話的音量

隨著對話音量的提升,環境中的其他聲音轉為背景音,使對話內容變得更為突出。

  1. 尋找聲音的來源處

不論是眼前的對話,或者是環境中的其他對話或雜音,若能清楚各個聲音的來源(如前後、左右或遠近位置),更有助於將注意力集中在目標來源上。就像坐在咖啡廳突然聽到情侶吵架聲,在定位他們的位置後,通常偷聽起來就會更輕鬆。

-----廣告,請繼續往下閱讀-----

Google AI 新應用,讓機器模仿人類的雞尾酒會效應

在吵雜環境中,將注意力集中在特定的目標上,藉以分辨不同的聲音內容,是人類與生俱來的能力;然而,這件事情對於機器來說卻顯得格外的困難,原因在於當多人同時說話時,混雜的音訊會影響單一人聲的辨識效果。不過,隨著科技的進步,人工智慧技術(artificial intelligenceAI)的發展,現在機器也能辦到同樣的事情!

由 Google 研發團隊結合 AI 所打造的視聽語音分離模型 (audio-visual speech separation model)能夠有效地增強特定說話者的聲音,同時降低環境中其他人聲或雜音干擾[8]。這套系統獨特的地方,在於它能夠同時分析視覺特徵和語音訊息,判讀說話者的嘴型與聲音的變化,建立人與聲音之間的對應關係[9]

這項技術的發展,未來也可望應用在許多領域上:像是在多人對話的影片中,提升自動化字幕生成的正確率。另一方面,也可以用來提升助聽輔具的表現,幫助聽損人士即使身處在吵雜環境中,依然能夠聽到清晰的人聲。

Google 所開發的視聽語音分離模型,能同時判讀視覺(嘴型)與聽覺(語音)特徵,進而獨立出特定說話者的聲音。圖/Ephrat et al., 2018

雞尾酒會效應揭開了注意力系統的奧妙,使我們能在吵雜環境中去關注重要的訊息。瞭解了越多相關的原理與應用後,不妨想想日常生活中還有哪些雞尾酒會效應吧!

-----廣告,請繼續往下閱讀-----

參考資料

  1. Sternberg, R. J., Sternberg, K., & Mio, J. S. (2012). Cognitive Psychology. Wadsworth/Cengage Learning.
  2. Cherry, E. C. (1953). Some experiments on the recognition of speech, with one and with two ears. The Journal of the Acoustical Society of America, 25(5), 975–979.
  3. Moray, N. (1959). Attention in Dichotic Listening: Affective Cues and the Influence of Instructions. Quarterly Journal of Experimental Psychology, 11(1), 56–60.
  4. Newman R. S. (2005). The cocktail party effect in infants revisited: listening to one’s name in noise. Developmental Psychology41(2), 352–362.
  5. Treisman A. M. (1964). Monitoring and storage of irrelevant messages in selective attention. Journal of Verbal Learning and Verbal Behavior, 3(6), 449–459.
  6. Treisman A. M. (1969). Strategies and models of selective attention. Psychological Review76(3), 282–299.
  7. Brungart, D. S., & Simpson, B. D. (2007). Cocktail party listening in a dynamic multitalker environment. Perception and Psychophysics, 69(1), 79–91.
  8.  Mosseri, I., & Lang, O. (2018, April 11). Looking to Listen: Audio-Visual Speech Separation. Google AI Blog.
  9. Ephrat, A., Mosseri, I., Lang, O., Dekel, T., Wilson, K., Hassidim, A., Freeman, W. T., & Rubinstein, M. (2018). Looking to listen at the cocktail party. ACM Transactions on Graphics, 37(4), 1–11.
-----廣告,請繼續往下閱讀-----
文章難易度
雅文兒童聽語文教基金會_96
60 篇文章 ・ 223 位粉絲
雅文基金會提供聽損兒早期療育服務,近年來更致力分享親子教養資訊、推動聽損兒童融合教育,並普及聽力保健知識,期盼在家庭、學校和社會埋下良善的種子,替聽損者營造更加友善的環境。

0

1
1

文字

分享

0
1
1
伺服器過熱危機!液冷與 3D VC 技術如何拯救高效運算?
鳥苷三磷酸 (PanSci Promo)_96
・2025/04/11 ・3194字 ・閱讀時間約 6 分鐘

-----廣告,請繼續往下閱讀-----

本文與 高柏科技 合作,泛科學企劃執行。

當我們談論能擊敗輝達(NVIDIA)、Google、微軟,甚至是 Meta 的存在,究竟是什麼?答案或許並非更強大的 AI,也不是更高速的晶片,而是你看不見、卻能瞬間讓伺服器崩潰的「熱」。

 2024 年底至 2025 年初,搭載 Blackwell 晶片的輝達伺服器接連遭遇過熱危機,傳聞 Meta、Google、微軟的訂單也因此受到影響。儘管輝達已經透過調整機櫃設計來解決問題,但這場「科技 vs. 熱」的對決,才剛剛開始。 

不僅僅是輝達,微軟甚至嘗試將伺服器完全埋入海水中,希望藉由洋流降溫;而更激進的做法,則是直接將伺服器浸泡在冷卻液中,來一場「浸沒式冷卻」的實驗。

-----廣告,請繼續往下閱讀-----

但這些方法真的有效嗎?安全嗎?從大型數據中心到你手上的手機,散熱已經成為科技業最棘手的難題。本文將帶各位跟著全球散熱專家 高柏科技,一同看看如何用科學破解這場高溫危機!

運算=發熱?為何電腦必然會發熱?

為什麼電腦在運算時溫度會升高呢? 圖/unsplash

這並非新問題,1961年物理學家蘭道爾在任職於IBM時,就提出了「蘭道爾原理」(Landauer Principle),他根據熱力學提出,當進行計算或訊息處理時,即便是理論上最有效率的電腦,還是會產生某些形式的能量損耗。因為在計算時只要有訊息流失,系統的熵就會上升,而隨著熵的增加,也會產生熱能。

換句話說,當計算是不可逆的時候,就像產品無法回收再利用,而是進到垃圾場燒掉一樣,會產生許多廢熱。

要解決問題,得用科學方法。在一個系統中,我們通常以「熱設計功耗」(TDP,Thermal Design Power)來衡量電子元件在正常運行條件下產生的熱量。一般來說,TDP 指的是一個處理器或晶片運作時可能會產生的最大熱量,通常以瓦特(W)為單位。也就是說,TDP 應該作為這個系統散熱的最低標準。每個廠商都會公布自家產品的 TDP,例如AMD的CPU 9950X,TDP是170W,GeForce RTX 5090則高達575W,伺服器用的晶片,則可能動輒千瓦以上。

-----廣告,請繼續往下閱讀-----

散熱不僅是AI伺服器的問題,電動車、儲能設備、甚至低軌衛星,都需要高效散熱技術,這正是高柏科技的專長。

「導熱介面材料(TIM)」:提升散熱效率的關鍵角色

在電腦世界裡,散熱的關鍵就是把熱量「交給」導熱效率高的材料,而這個角色通常是金屬散熱片。但散熱並不是簡單地把金屬片貼在晶片上就能搞定。

現實中,晶片表面和散熱片之間並不會完美貼合,表面多少會有細微間隙,而這些縫隙如果藏了空氣,就會變成「隔熱層」,阻礙熱傳導。

為了解決這個問題,需要一種關鍵材料,導熱介面材料(TIM,Thermal Interface Material)。它的任務就是填補這些縫隙,讓熱可以更加順暢傳遞出去。可以把TIM想像成散熱高速公路的「匝道」,即使主線有再多車道,如果匝道堵住了,車流還是無法順利進入高速公路。同樣地,如果 TIM 的導熱效果不好,熱量就會卡在晶片與散熱片之間,導致散熱效率下降。

-----廣告,請繼續往下閱讀-----

那麼,要怎麼提升 TIM 的效能呢?很直覺的做法是增加導熱金屬粉的比例。目前最常見且穩定的選擇是氧化鋅或氧化鋁,若要更高效的散熱材料,則有氮化鋁、六方氮化硼、立方氮化硼等更高級的選項。

典型的 TIM 是由兩個成分組成:高導熱粉末(如金屬或陶瓷粉末)與聚合物基質。大部分散熱膏的特點是流動性好,盡可能地貼合表面、填補縫隙。但也因為太「軟」了,受熱受力後容易向外「溢流」。或是造成基質和熱源過分接觸,高分子在高溫下發生熱裂解。這也是為什麼有些導熱膏使用一段時間後,會出現乾裂或表面變硬。

為了解決這個問題,高柏科技推出了凝膠狀的「導熱凝膠」,說是凝膠,但感覺起來更像黏土。保留了可塑性、但更有彈性、更像固體。因此不容易被擠壓成超薄,比較不會熱裂解、壽命也比較長。

OK,到這裡,「匝道」的問題解決了,接下來的問題是:這條散熱高速公路該怎麼設計?你會選擇氣冷、水冷,還是更先進的浸沒式散熱呢?

-----廣告,請繼續往下閱讀-----

液冷與 3D VC 散熱技術:未來高效散熱方案解析

除了風扇之外,目前還有哪些方法可以幫助電腦快速散熱呢?圖/unsplash

傳統的散熱方式是透過風扇帶動空氣經過散熱片來移除熱量,也就是所謂的「氣冷」。但單純的氣冷已經達到散熱效率的極限,因此現在的散熱技術有兩大發展方向。

其中一個方向是液冷,熱量在經過 TIM 後進入水冷頭,水冷頭內的不斷流動的液體能迅速帶走熱量。這種散熱方式效率好,且增加的體積不大。唯一需要注意的是,萬一元件損壞,可能會因為漏液而損害其他元件,且系統的成本較高。如果你對成本有顧慮,可以考慮另一種方案,「3D VC」。

3D VC 的原理很像是氣冷加液冷的結合。3D VC 顧名思義,就是把均溫板層層疊起來,變成3D結構。雖然均溫板長得也像是一塊金屬板,原理其實跟散熱片不太一樣。如果看英文原文的「Vapor Chamber」,直接翻譯是「蒸氣腔室」。

在均溫板中,會放入容易汽化的工作流體,當流體在熱源處吸收熱量後就會汽化,當熱量被帶走,汽化的流體會被冷卻成液體並回流。這種利用液體、氣體兩種不同狀態進行熱交換的方法,最大的特點是:導熱速度甚至比金屬的熱傳導還要更快、熱量的分配也更均勻,不會有熱都聚集在入口(熱源處)的情況,能更有效降溫。

-----廣告,請繼續往下閱讀-----

整個 3DVC 的設計,是包含垂直的熱導管和水平均溫板的 3D 結構。熱導管和均溫板都是採用氣、液兩向轉換的方式傳遞熱量。導熱管是電梯,能快速把散熱工作帶到每一層。均溫板再接手將所有熱量消化掉。最後當空氣通過 3DVC,就能用最高的效率帶走熱量。3DVC 跟水冷最大的差異是,工作流體移動的過程經過設計,因此不用插電,成本僅有水冷的十分之一。但相對的,因為是被動式散熱,其散熱模組的體積相對水冷會更大。

從 TIM 到 3D VC,高柏科技一直致力於不斷創新,並多次獲得國際專利。為了進一步提升 3D VC 的散熱效率並縮小模組體積,高柏科技開發了6項專利技術,涵蓋系統設計、材料改良及結構技術等方面。經過設計強化後,均溫板不僅保有高導熱性,還增強了結構強度,顯著提升均溫速度及耐用性。

隨著散熱技術不斷進步,有人提出將整個晶片組或伺服器浸泡在冷卻液中的「浸沒式冷卻」技術,將主機板和零件完全泡在不導電的特殊液體中,許多冷卻液會選擇沸點較低的物質,因此就像均溫板一樣,可以透過汽化來吸收掉大量的熱,形成泡泡向上浮,達到快速散熱的效果。

然而,因為水會導電,因此替代方案之一是氟化物。雖然效率差了一些,但至少可以用。然而氟化物的生產或廢棄時,很容易產生全氟/多氟烷基物質 PFAS,這是一種永久污染物,會對環境產生長時間影響。目前各家廠商都還在試驗新的冷卻液,例如礦物油、其他油品,又或是在既有的液體中添加奈米碳管等特殊材質。

-----廣告,請繼續往下閱讀-----

另外,把整個主機都泡在液體裡面的散熱邏輯也與原本的方式大相逕庭。如何重新設計液體對流的路線、如何讓氣泡可以順利上浮、甚至是研究氣泡的出現會不會影響元件壽命等等,都還需要時間來驗證。

高柏科技目前已將自家產品提供給各大廠商進行相容性驗證,相信很快就能推出更強大的散熱模組。

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
223 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

1
0

文字

分享

0
1
0
數智驅動未來:從信任到執行,AI 為企業創新賦能
鳥苷三磷酸 (PanSci Promo)_96
・2025/01/13 ・4938字 ・閱讀時間約 10 分鐘

-----廣告,請繼續往下閱讀-----

本文由 鼎新數智 與 泛科學 共同規劃與製作

你有沒有想過,當 AI 根據病歷與 X 光片就能幫你診斷病症,或者決定是否批准貸款,甚至從無人機發射飛彈時,它的每一步「決策」是怎麼來的?如果我們不能知道 AI 的每一個想法步驟,對於那些 AI 輔助的診斷和判斷,要我們如何放心呢?

馬斯克與 OpenAI 的奧特曼鬧翻後,創立了新 AI 公司 xAI,並推出名為 Grok 的產品。他宣稱目標是以開源和可解釋性 AI 挑戰其他模型,而 xAI 另一個意思是 Explainable AI 也就是「可解釋性 AI」。

如今,AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?

-----廣告,請繼續往下閱讀-----
AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?圖/pexels

黑盒子模型背後的隱藏秘密

無法解釋的 AI 究竟會帶來多少問題?試想,現在許多銀行和貸款機構已經使用 AI 評估借貸申請者的信用風險,但這些模型往往如同黑箱操作。有人貸款被拒,卻完全不知原因,感覺就像被分手卻不告訴理由。更嚴重的是,AI 可能擅自根據你的住所位置或社會經濟背景給出負面評價,這些與信用風險真的相關嗎?這種不透明性只會讓弱勢群體更難融入金融體系,加劇貧富差距。這種不透明性,會讓原本就已經很難融入金融體系的弱勢群體,更加難以取得貸款,讓貧富差距越來越大,雪上加霜。

AI 不僅影響貸款,還可能影響司法公正性。美國部分法院自 2016 年起使用「替代性制裁犯罪矯正管理剖析軟體」 COMPAS 這款 AI 工具來協助量刑,試圖預測嫌犯再犯風險。然而,這些工具被發現對有色人種特別不友好,往往給出偏高的再犯風險評估,導致更重的刑罰和更嚴苛的保釋條件。更令人擔憂的是,這些決策缺乏透明度,AI 做出的決策根本沒法解釋,這讓嫌犯和律師無法查明問題根源,結果司法公正性就這麼被悄悄削弱了。

此外,AI 在醫療、社交媒體、自駕車等領域的應用,也充滿類似挑戰。例如,AI 協助診斷疾病,但若原因報告無法被解釋,醫生和患者又怎能放心?同樣地,社群媒體或是 YouTube 已經大量使用 AI 自動審查,以及智慧家居或工廠中的黑盒子問題,都像是一場越來越複雜的魔術秀——我們只看到結果,卻無法理解過程。這樣的情況下,對 AI 的信任感就成為了一個巨大的挑戰。

為什麼人類設計的 AI 工具,自己卻無法理解?

原因有二。首先,深度學習模型結構複雜,擁有數百萬參數,人類要追蹤每個輸入特徵如何影響最終決策結果,難度極高。例如,ChatGPT 中的 Transformer 模型,利用注意力機制(Attention Mechanism)根據不同詞之間的重要性進行特徵加權計算,因為機制本身涉及大量的矩陣運算和加權計算,這些數學操作使得整個模型更加抽象、不好理解。

-----廣告,請繼續往下閱讀-----

其次,深度學習模型會會從資料中學習某些「特徵」,你可以當作 AI 是用畫重點的方式在學習,人類劃重點目的是幫助我們加速理解。AI 的特徵雖然也能幫助 AI 學習,但這些特徵往往對人類來說過於抽象。例如在影像辨識中,人類習慣用眼睛、嘴巴的相對位置,或是手指數量等特徵來解讀一張圖。深度學習模型卻可能會學習到一些抽象的形狀或紋理特徵,而這些特徵難以用人類語言描述。

深度學習模型通常採用分佈式表示(Distributed Representation)來編碼特徵,意思是將一個特徵表示為一個高維向量,每個維度代表特徵的不同方面。假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。對 AI 而言,這是理解世界的方式,但對人類來說,卻如同墨跡測驗般難以解讀。

假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。圖/unsplash

試想,AI 協助診斷疾病時,若理由是基於醫生都無法理解的邏輯,患者即使獲得正確診斷,也會感到不安。畢竟,人們更相信能被理解的東西。

打開黑盒子:可解釋 AI 如何運作?我們要如何教育 AI?

首先,可以利用熱圖(heatmap)或注意力圖這類可視化技術,讓 AI 的「思維」有跡可循。這就像行銷中分析消費者的視線停留在哪裡,來推測他們的興趣一樣。在卷積神經網絡和 Diffusion Models 中 ,當 AI 判斷這張照片裡是「貓」還是「狗」時,我需要它向我們展示在哪些地方「盯得最緊」,像是耳朵的形狀還是毛色的分布。

-----廣告,請繼續往下閱讀-----

其次是局部解釋,LIME 和 SHAP 是兩個用來發展可解釋 AI 的局部解釋技術。

SHAP 的概念來自博弈,它將每個特徵看作「玩家」,而模型的預測結果則像「收益」。SHAP 會計算每個玩家對「收益」的貢獻,讓我們可以了解各個特徵如何影響最終結果。並且,SHAP 不僅能透過「局部解釋」了解單一個結果是怎麼來的,還能透過「全局解釋」理解模型整體的運作中,哪些特徵最重要。

以實際的情景來說,SHAP 可以讓 AI 診斷出你有某種疾病風險時,指出年齡、體重等各個特徵的影響。

LIME 的運作方式則有些不同,會針對單一個案建立一個簡單的模型,來近似原始複雜模型的行為,目的是為了快速了解「局部」範圍內的操作。比如當 AI 拒絕你的貸款申請時,LIME 可以解釋是「收入不穩定」還是「信用紀錄有問題」導致拒絕。這種解釋在 Transformer 和 NLP 應用中廣泛使用,一大優勢是靈活且計算速度快,適合臨時分析不同情境下的 AI 判斷。比方說在醫療場景,LIME 可以幫助醫生理解 AI 為何推薦某種治療方案,並說明幾個主要原因,這樣醫生不僅能更快做出決策,也能增加患者的信任感。

-----廣告,請繼續往下閱讀-----

第三是反事實解釋:如果改變一點點,會怎麼樣?

如果 AI 告訴你:「這家銀行不會貸款給你」,這時你可能會想知道:是收入不夠,還是年齡因素?這時你就可以問 AI:「如果我年輕五歲,或者多一份工作,結果會怎樣?」反事實解釋會模擬這些變化對結果的影響,讓我們可以了解模型究竟是如何「權衡利弊」。

最後則是模型內部特徵的重要性排序。這種方法能顯示哪些輸入特徵對最終結果影響最大,就像揭示一道菜中,哪些調味料是味道的關鍵。例如在金融風險預測中,模型可能指出「收入」影響了 40%,「消費習慣」占了 30%,「年齡」占了 20%。不過如果要應用在像是 Transformer 模型等複雜結構時,還需要搭配前面提到的 SHAP 或 LIME 以及可視化技術,才能達到更完整的解釋效果。

講到這裡,你可能會問:我們距離能完全信任 AI 還有多遠?又或者,我們真的應該完全相信它嗎?

-----廣告,請繼續往下閱讀-----

我們終究是想解決人與 AI 的信任問題

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。因此,AI 既要「可解釋」,也要「能代理」。

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。圖/unsplash

舉例來說,當一家公司要做一個看似「簡單」的決策時,背後的過程其實可能極為複雜。例如,快時尚品牌決定是否推出新一季服裝,不僅需要考慮過去的銷售數據,還得追蹤熱門設計趨勢、天氣預測,甚至觀察社群媒體上的流行話題。像是暖冬來臨,厚外套可能賣不動;或消費者是否因某位明星愛上一種顏色,這些細節都可能影響決策。

這些數據來自不同部門和來源,龐大的資料量與錯綜關聯使企業判斷變得困難。於是,企業常希望有個像經營大師的 AI 代理人,能吸收數據、快速分析,並在做決定時不僅給出答案,還能告訴你「為什麼要這麼做」。

傳統 AI 像個黑盒子,而可解釋 AI (XAI)則清楚解釋其判斷依據。例如,為什麼不建議推出厚外套?可能理由是:「根據天氣預測,今年暖冬概率 80%,過去三年數據顯示暖冬時厚外套銷量下降 20%。」這種透明解釋讓企業更信任 AI 的決策。

-----廣告,請繼續往下閱讀-----

但會解釋還不夠,AI 還需能真正執行。這時,就需要另一位「 AI 代理人」上場。想像這位 AI 代理人是一位「智慧產品經理」,大腦裝滿公司規則、條件與行動邏輯。當客戶要求變更產品設計時,這位產品經理不會手忙腳亂,而是按以下步驟行動:

  1. 檢查倉庫物料:庫存夠不夠?有沒有替代料可用?
  2. 評估交期影響:如果需要新物料,供應商多快能送到?
  3. 計算成本變化:用新料會不會超出成本預算?
  4. 做出最優判斷,並自動生成變更單、工單和採購單,通知各部門配合執行。

這位 AI 代理人不僅能自動處理每個環節,還會記錄每次決策結果,學習如何變得更高效。隨時間推移,這位「智慧產品經理」的判斷將更聰明、決策速度更快,幾乎不需人工干預。更重要的是,這些判斷是基於「以終為始」的原則,為企業成長目標(如 Q4 業績增長 10%)進行連續且動態地自我回饋,而非傳統系統僅月度檢核。

這兩位 AI 代理人的合作,讓企業決策流程不僅透明,還能自動執行。這正是數智驅動的核心,不僅依靠數據驅動決策,還要能解釋每一個選擇,並自動行動。這個過程可簡化為 SUPA,即「感知(Sensing)→ 理解(Understanding)→ 規劃(Planning)→ 行動(Acting)」的閉環流程,隨著數據的變化不斷進化。

偉勝乾燥工業為例,他們面臨高度客製化與訂單頻繁變更的挑戰。導入鼎新 METIS 平台後,偉勝成功將數智驅動融入業務與產品開發,專案準時率因此提升至 80%。他們更將烤箱技術與搬運機器人結合,開發出新形態智慧化設備,成功打入半導體產業,帶動業績大幅成長,創造下一個企業的增長曲線。

-----廣告,請繼續往下閱讀-----

值得一提的是,數智驅動不僅帶動業務增長,還讓員工擺脫繁瑣工作,讓工作更輕鬆高效。

數智驅動的成功不僅依賴技術,還要與企業的商業策略緊密結合。為了讓數智驅動真正發揮作用,企業首先要確保它服務於具體的業務需求,而不是為了技術而技術。

這種轉型需要有策略、文化和具體應用場景的支撐,才能讓數智驅動真正成為企業持續增長的動力。

還在猶豫數智驅動的威力?免費上手企業 AI 助理!👉 企業 AI 體驗
現在使用專屬邀請碼《 KP05 》註冊就享知:https://lihi.cc/EDUk4
訂閱泛科學獨家知識頻道,深入科技趨勢與議題內容。

👉立即免費加入

-----廣告,請繼續往下閱讀-----
鳥苷三磷酸 (PanSci Promo)_96
223 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

1
0

文字

分享

0
1
0
從遊戲到量子計算:NVIDIA 憑什麼在 AI 世代一騎絕塵?
PanSci_96
・2025/01/09 ・2941字 ・閱讀時間約 6 分鐘

-----廣告,請繼續往下閱讀-----

AI 與 GPU 的連結:為什麼 NVIDIA 股價一路飆?

2023 年至今,人工智慧(AI)熱潮引爆全球科技圈的競爭與創新,但最受矚目的企業,莫過於 NVIDIA。它不僅長期深耕遊戲顯示卡市場,在近年來卻因為 AI 應用需求的飆升,一舉躍居市值龍頭。原因何在?大家可能會直覺認為:「顯示卡性能強,剛好給 AI 訓練用!」事實上,真正的關鍵並非只有強悍的硬體,而是 NVIDIA 打造的軟硬體整合技術──CUDA

接下來將為你剖析 CUDA 與通用圖形處理(GPGPU)的誕生始末,以及未來 NVIDIA 持續看好的量子計算與生醫應用,一窺這家企業如何從「遊戲顯示卡大廠」蛻變為「AI 世代的領航者」。

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

CPU vs. GPU:為何顯示卡能成為 AI 領跑者?

在電腦運作中,CPU(中央處理器)向來是整個系統的「大腦」,負責執行指令、邏輯判斷與多樣化的運算。但是,AI 模型訓練需要面對的是龐大的數據量與繁複的矩陣或張量運算。這些運算雖然單一步驟並不複雜,但需要進行「海量且重複性極高」的計算,CPU 難以在短時間內完成。

反觀 GPU(圖形處理器),原先是用來處理遊戲畫面渲染,內部具有 大量且相對簡單的算術邏輯單元。GPU 可以同時在多個核心中進行平行化運算,就像一座「高度自動化、流水線式」的工廠,可一次處理大量像素、頂點或是 AI 訓練所需的運算。這讓 GPU 在大量數值計算上遠遠超越了 CPU 的處理速度,也讓「顯示卡算 AI」成了新時代的主流。

-----廣告,請繼續往下閱讀-----

顯示卡不只渲染:GPGPU 與 CUDA 的誕生

早期,GPU 只被視為遊戲繪圖的利器,但 NVIDIA 的創辦人黃仁勳很快察覺到:這種多核心平行化的結構,除了渲染,也能用來處理科學運算。於是,NVIDIA 在 2007 年正式推出了名為 CUDA(Compute Unified Device Architecture) 的平台。這是一套讓開發者能以熟悉的程式語言(如 C、C++、Python)來調用 GPU 資源的軟體開發工具套件,解決了「人類要如何對 GPU 下指令」的問題。

在 CUDA 出現之前,若要把 GPU 用於渲染以外的用途,往往必須透過「著色器語言」或 OpenGL、DirectX 等繪圖 API 進行繁瑣的間接操作。對想用 GPU 加速數學或科學研究的人來說,門檻極高。然而,有了 CUDA,開發者不需理解圖像著色流程,也能輕鬆呼叫 GPU 的平行運算能力。這代表 GPU 從遊戲卡一躍成為「通用圖形處理單元」(GPGPU),徹底拓展了它在科學研究、AI、影像處理等領域的應用版圖。

AI 崛起的臨門一腳:ImageNet 大賽的關鍵一擊

如果說 CUDA 是 NVIDIA 邁向 AI 領域的踏腳石,那麼真正讓 GPU 與 AI 完美結合的轉捩點,發生在 2012 年的 ImageNet 大規模視覺辨識挑戰賽(ILSVRC)。這場由李飛飛教授創辦的影像辨識競賽中,參賽團隊需要對龐大的影像數據進行訓練、分類及辨識。就在那一年,名為「AlexNet」的深度學習模型橫空出世,利用 GPU 進行平行運算,大幅減少了訓練時間,甚至比第二名的辨識率高出將近 10 個百分點,震撼了全球 AI 研究者。

AlexNet 的成功,讓整個學界與業界都注意到 GPU 在深度學習中的強大潛力。CUDA 在此時被奉為「不二之選」,再加上後來發展的 cuDNN 等深度學習函式庫,讓開發者不必再自行編寫底層 GPU 程式碼,建立 AI 模型的難度與成本大幅降低,NVIDIA 的股價也因此搭上了 AI 波浪,一飛沖天。

-----廣告,請繼續往下閱讀-----
AlexNet 的成功凸顯 GPU 在深度學習中的潛力。圖/unsplash

為什麼只有 NVIDIA 股價衝?對手 AMD、Intel 在做什麼?

市面上有多家廠商生產 CPU 和 GPU,例如 AMD 與 Intel,但為什麼只有 NVIDIA 深受 AI 市場青睞?綜觀原因,硬體只是其一,真正不可或缺的,是 「軟硬體整合」與「龐大的開發者生態系」

硬體部分 NVIDIA 長年深耕 GPU 技術,產品線完整,且數據中心級的顯示卡在能耗與性能上具領先優勢。軟體部分 CUDA 及其相關函式庫生態,涵蓋了影像處理、科學模擬、深度學習(cuDNN)等多方面,讓開發者易於上手且高度依賴。

相比之下,雖然 AMD 也推行了 ROCm 平台、Intel 有自家解決方案,但在市場普及度與生態支持度上,依舊與 NVIDIA 有相當差距。

聰明的管理者

GPU 的優勢在於同時有成百上千個平行運算核心。當一個深度學習模型需要把數據切分成無數個小任務時,CUDA 負責將這些任務合理地排班與分配,並且在記憶體讀寫方面做出最佳化。

-----廣告,請繼續往下閱讀-----
  • 任務分類:同性質的任務集中處理,以減少切換或等待。
  • 記憶體管理:避免資料在 CPU 與 GPU 之間頻繁搬移,能大幅提升效率。
  • 函式庫支援:如 cuDNN,針對常見的神經網路操作(卷積、池化等)做進一步加速,使用者不必從零開始撰寫平行運算程式。

結果就是,研究者、工程師甚至學生,都能輕鬆把 GPU 能力用在各式各樣的 AI 模型上,訓練速度自然飛漲。

從 AI 到量子計算:NVIDIA 對未來的佈局

當 AI 波浪帶來了股價與市值的激增,NVIDIA 並沒有停下腳步。實際上,黃仁勳與團隊還在積極耕耘下一個可能顛覆性的領域──量子計算

2023 年,NVIDIA 推出 CUDA Quantum 平台,嘗試將量子處理器(QPU)與傳統 GPU / CPU 整合,以混合式演算法解決量子電腦無法單獨加速的部分。就像為 AI 量身打造的 cuDNN 一樣,NVIDIA 也對量子計算推出了相對應的開發工具,讓研究者能在 GPU 上模擬量子電路,或與量子處理器協同運算。

NVIDIA 推出 CUDA Quantum 平台,整合 GPU 與 QPU,助力混合量子運算。圖/unsplash

這項新布局,或許還需要時間觀察是否能孕育出市場級應用,但顯示 NVIDIA 對「通用運算」的野心不只停留於 AI,也想成為「量子時代」的主要推手。

-----廣告,請繼續往下閱讀-----

AI 熱潮下,NVIDIA 凭什麼坐穩王座?

回到一開始的疑問:「為什麼 AI 熱,NVIDIA 股價就一定飛?」 答案可簡化為兩點:

  1. 硬體領先 + 軟體生態:顯示卡性能強固然重要,但 CUDA 建立的開發者生態系才是關鍵。
  2. 持續布局未來:當 GPU 為 AI 提供高效能運算平台,NVIDIA 亦不斷將資源投入到量子計算、生醫領域等新興應用,為下一波浪潮預先卡位。

或許,正因為不斷探索新技術與堅持軟硬整合策略,NVIDIA 能在遊戲市場外再創一個又一個高峰。雖然 AMD、Intel 等競爭者也全力追趕,但短期內想撼動 NVIDIA 的領先地位,仍相當不易。

未來,隨著 AI 技術持續突破,晶片性能與通用運算需求只會節節攀升。「AI + CUDA + GPU」 的組合,短時間內看不出能被取代的理由。至於 NVIDIA 是否能繼續攀向更驚人的市值高峰,甚至在量子計算跑道上再拿下一座「王者寶座」,讓我們拭目以待。

歡迎訂閱 Pansci Youtube 頻道 鎖定每一個科學大事件!

-----廣告,請繼續往下閱讀-----

討論功能關閉中。