Loading [MathJax]/extensions/tex2jax.js

0

0
0

文字

分享

0
0
0

生命之樹的第三次開花

商周出版_96
・2013/07/25 ・3295字 ・閱讀時間約 6 分鐘 ・SR值 508 ・六年級

-----廣告,請繼續往下閱讀-----

2052單書封文 / 喬納山.羅(Jonathan Loh)

在未來四十年內,將會發生一件事,不僅會改變我們物種的歷史,更會改變演化本身。我們也許不知道這會在什麼時候發生,但到二○五二年時,我們將會完全了解,這已經發生了。像這樣的事件以前發生過兩次,但發生的方式不一樣,第三次也還是不一樣。

在描述過去這些事件,以及未來事件時,我將使用生命之樹(Tree of Life)的比喻。這棵樹的外圍分枝會偶而且突然地開花,而且開得十分壯觀。 在過去,這種開花情況已經發生過兩次,上一次開在它外圍無數分枝的其中一枝的頂端。第一次開花發生在五億五千萬年前,當時,所有多細胞有機體剛剛展開演化過程,第二次則是人類多元文化的開始,時間在七萬到八萬年前。第三次開花即將在這棵生命之樹的外圍邊緣開始,將會導致新的多元演化。

想像一下,把地球歷史濃縮成一年。地球在大約四十五億年前,凝結了從太陽表面噴出的熱塵和氣體而成形;我們把這個時間稱之為一月一日零點(00:00)。接著,地球開始冷卻。大約在三月的時候,第一批生命出現了,但一直到十一月,地球上所有的生命體都是單細胞的。到了十一月中旬,單細胞生命開始聚集在一起,形成笫一個多細胞生命形式,這被稱作「埃迪卡拉紀動物群」(Ediacaran fauna)。

-----廣告,請繼續往下閱讀-----

第一次開花 

埃迪卡拉只持續了幾天時間,接著,在十一月十八日就被寒武紀大爆發(Cambrian explosion)給吹跑了:這是指演化活動突然大量出現,產生了很多新的生命形式,這種大規模的演化是之前未曾有過的。有著極其複雜度的奇異生命體出現了。很多有著堅硬的甲殼,以及擁有無堅不摧的武器。演化的武器競賽就此展開。到了十一月二十日早晨,一切都過去了。第一次開花期結束了,但所有生命體從那時候起,就一直按照當時的基本藍圖來進行演化。

生命之樹繼續長出枝葉和成長,產生新的物種,失去一些舊的,這持續了大約五億多年。接著,在十二月三十一日傍晚,一次不尋常、空前的事件發生了。這根特別的外圍樹枝 ──幾百萬根樹枝中的其中一枝──外表看來並沒有什麼特別,雖然牠屬於一個很大的哺乳動物物種,但絕對不是其中體形最大,也不是跑的最快,更沒有擁有最厚的甲殼或最厲害的武器。但牠卻開始說話了。在那根樹枝上的這個物種,就是我們,因為我們擁有這項傑出和獨一無二的創新──語言──結果,生命之樹開始了第二次繁茂的開花期。

第二次開花 

現代人類最初在二十萬年前左右出現,當時已經是這個地球年的最終時刻了。人類語言是如何或何時演化的,並不知道。一開始也許只是手勢,而不是聲音。但一旦固定了,就會形成一種全新模式的演化──文化演化。文化演化的形態和物種類似,都是經由突變、遺傳傳輸和選擇來進行。文化的傳輸並不是透過父母身體的DNA傳給後代,而是透過行為學習,從某一個體傳到另一個體。透過語言,這樣的傳輸變得極其容易。

今天,全世界大約有七千種語言,每一種都可以被用來表達不同的文化。這些語言代表文化之樹最外圍的樹枝,但另外還有很多已經消失的語言,它們的樹枝在長出來之後不久就枯死了。跟物種一樣,某些語言可以被分類成好幾個家族,擁有共同的祖先,但卻又各自獨立。

-----廣告,請繼續往下閱讀-----

生物與文化演化之間的最大差別,就是速度。生物演化很慢,文化演化則很快速,所以在一生當中是可以見得到的。另一個差別是,在不同語言之間會出現借用的情況。借用語言,就等於不同物種之間交換遺傳物質,但這是大部分生命體無法作到的。

雖然語言起源的日期並不知道,但幾乎可以確定是在七萬到八萬年前。當時,全球人口大約是十萬個個人,大部分都居住在非洲大陸。在這時候,也就是最後冰河期的中葉,大約就在十二月三十一日的二十三點五十二分左右,人們開始移出非洲,逐漸分散到亞洲各地,沿著海岸線移動,同時沿著河谷向上游遷移。他們的後代子孫成功橫渡東南亞大陸和澳洲之間的海峽,時間大約在四萬到六萬年前。其他的則向北移動進入歐洲,或是經由地峽進入美洲。人類最後一次的大規模遷移並不是在陸地,而是在太平洋,人類最後終於在一千年前抵達紐西蘭,或者,就在半夜前的七秒鐘。

人類分散到全球各地後,這些移民就形成小小的孤立團體,生活在一起,並且把他們的語言和文化傳承下去。文化演化引發數千種的地方變異,最後導致了人類語言和文化的廣大多樣性。這是生命之樹第二次開花,就是文化大爆發。

滅絕 

多樣化通常會伴隨著減絕。至少發生過五次物種大滅絕,全球物種多樣化突然大量減少,時間分別在十一月二十六日和十二月二日、十二日、十五日和二十六日。在十二月十二日,大約在二億四千五百萬年前,九六%的物種都絕種了。在十二月二十六日,也就是六千五百萬年前,最後一次大滅絕造成恐龍的滅絕。不過,在每次大滅絕之後,生物多樣性很快就會恢復,甚至超越之前的物種最高數量。

-----廣告,請繼續往下閱讀-----

今天,我們就站在第六次大滅絕的邊緣。但這一次,我們喪失了文化和生物多樣性。全世界一半人口只使用二十五種語言中的其中一種,剩下的七千種語言中,其中大約一半的語言,每一種的使用者都不超過一萬人。

語言會消失,是因為這些語言的使用者,不是死亡,就是更常見的,改而去使用第二種語言,在不到幾個世代之後,就忘掉了他們原來的母語。而隨著他們語言的消失,他們的文化也跟著沒落。最根本的原因則是全球化、移民、現代通訊,或者,有時是受到了壓迫。

生物─文化多樣性的喪失,似乎不可能會在二○五二年之前逆轉。然而,在生物─文化多樣性減少的同時,我相信,另一種快速多樣性,將會從生命之樹邊緣的一根語言樹枝裡迸發出來。這種語言將不會是英文,也不是中文,而是一種很近代的語言,是被發明出來的一種:電腦語言將會引發第三次開花。

第三次開花

這將不會是工程師用來寫軟體時使用的那種電腦語言。這將會是電腦用來寫它們自己的程式時使用的語言。在寫這樣的程式時,使用的是造成生物和文化多樣性的相同的演化運算法則。

-----廣告,請繼續往下閱讀-----

基本原則是,一部電腦,可以給它一個目標和初步的程式,讓它可以運作。這部電腦接著就會把程式複製好幾遍,把亂數變化引進到編碼中。它會運作新一代的程式,選擇運作得最好的程式,淘汰其他的。這樣的循環不斷重複,一遍又一遍,直到它產生出一個程式,可以滿足最初的目標。當然,在生物或文化演化中,是沒有終極目標的;也不會有數位演化。程式的選擇將由廣大的應用程式市場來決定。

因為效率愈來愈高,電腦編寫的程式將開始取代人類寫的程式,接著,電腦設計的電腦將取代人類設計的電腦。最後,人類將無法完全了解電腦是如何運作的了。到了二○五二年,電腦已經進化出人工智慧,甚至已經有了人工意識。最初,電腦依靠人類來把它們製造出來,並供應它們電力,但這些將逐漸由電腦來完成。大多數人類將會歡迎電腦科技如此蓬勃發展,因為它將提供極其不平凡的新應用程式,會使得他們的生活變得更輕鬆或更富裕。

電腦編寫程式的快速多樣化,已經開始,但一直要到二○五二年才會成熟。生命之樹的新樹枝將由眾多程式組成,就如同較舊的樹枝由眾多物種或語言組成,但它們的形式或功能還不清楚。人類文化是透過模因(meme,傳承文化資訊的單位)來傳播:想法可以從一個人複製給另一個人。模因類似於文化的基因,但是寄居在意識中而非細胞裡。電腦文化生存在人類意識之外,從這部電腦傳輸到另一部電腦。我建議,把這種傳輸的基本單位叫作exeme(executable meme,可執行的模因),數位的模因或基因的相似體。

因此,我們將來面對的,將會是這樣的未來:在其中,兩個古老的演化多樣化將會逐漸衰減,而一種新的演化則正在升起。這不是我們在意識中策劃的或想要的,只是,這就好像我們人類老祖先選擇說話,或是我們的單細胞祖先選擇演化成多細胞物種。之所以會發生這樣的演化,單純是因為某種根本上的創新促成大規模的演化多樣化。這會把我們帶到那兒去?我們能夠控制電腦文化嗎?或者,電腦將來看待人類,會像我們現在看待其他物種那樣嗎:有趣,有用處,甚至是必要的,但基本上卻只是低等的生命形式?

-----廣告,請繼續往下閱讀-----

喬納山.羅(英國人,一九六三年出生)是動物學家,專門研究生物與文化多樣化的監測與保育。他是倫敦動物學會(Zoological Society of London)的名譽研究員,也是世界自然基金會顧問。

 

摘自《2052》,由商周出版。

-----廣告,請繼續往下閱讀-----
文章難易度
商周出版_96
123 篇文章 ・ 364 位粉絲
閱讀商周,一手掌握趨勢,感受愜意生活!商周出版為專業的商業書籍出版公司,期望為社會推動基礎商業知識和教育。

0

1
0

文字

分享

0
1
0
拆解邊緣AI熱潮:伺服器如何提供穩固的運算基石?
鳥苷三磷酸 (PanSci Promo)_96
・2025/05/21 ・5071字 ・閱讀時間約 10 分鐘

本文與 研華科技 合作,泛科學企劃執行。

每次 NVIDIA 執行長黃仁勳公開發言,總能牽動整個 AI 產業的神經。然而,我們不妨設想一個更深層的問題——如今的 AI 幾乎都倚賴網路連線,那如果哪天「網路斷了」,會發生什麼事?

想像你正在自駕車打個盹,系統突然警示:「網路連線中斷」,車輛開始偏離路線,而前方竟是萬丈深谷。又或者家庭機器人被駭,開始暴走跳舞,甚至舉起刀具向你走來。

這會是黃仁勳期待的未來嗎?當然不是!也因為如此,「邊緣 AI」成為業界關注重點。不靠雲端,AI 就能在現場即時反應,不只更安全、低延遲,還能讓數據當場變現,不再淪為沉沒成本。

什麼是邊緣 AI ?

邊緣 AI,乍聽之下,好像是「孤單站在角落的人工智慧」,但事實上,它正是我們身邊最可靠、最即時的親密數位夥伴呀。

當前,像是企業、醫院、學校內部的伺服器,個人電腦,甚至手機等裝置,都可以成為「邊緣節點」。當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。簡單來說,就是將原本集中在遠端資料中心的運算能力,「搬家」到更靠近數據源頭的地方。

-----廣告,請繼續往下閱讀-----

那麼,為什麼需要這樣做?資料放在雲端,集中管理不是更方便嗎?對,就是不好。

當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。/ 圖片來源:MotionArray

第一個不好是物理限制:「延遲」。
即使光速已經非常快,數據從你家旁邊的路口傳到幾千公里外的雲端機房,再把分析結果傳回來,中間還要經過各種網路節點轉來轉去…這樣一來一回,就算只是幾十毫秒的延遲,對於需要「即刻反應」的 AI 應用,比如說工廠裡要精密控制的機械手臂、或者自駕車要判斷路況時,每一毫秒都攸關安全與精度,這點延遲都是無法接受的!這是物理距離與網路架構先天上的限制,無法繞過去。

第二個挑戰,是資訊科學跟工程上的考量:「頻寬」與「成本」。
你可以想像網路頻寬就像水管的粗細。隨著高解析影像與感測器數據不斷來回傳送,湧入的資料數據量就像超級大的水流,一下子就把水管塞爆!要避免流量爆炸,你就要一直擴充水管,也就是擴增頻寬,然而這樣的基礎建設成本是很驚人的。如果能在邊緣就先處理,把重要資訊「濃縮」過後再傳回雲端,是不是就能減輕頻寬負擔,也能節省大量費用呢?

第三個挑戰:系統「可靠性」與「韌性」。
如果所有運算都仰賴遠端的雲端時,一旦網路不穩、甚至斷線,那怎麼辦?很多關鍵應用,像是公共安全監控或是重要設備的預警系統,可不能這樣「看天吃飯」啊!邊緣處理讓系統更獨立,就算暫時斷線,本地的 AI 還是能繼續運作與即時反應,這在工程上是非常重要的考量。

所以你看,邊緣運算不是科學家們沒事找事做,它是順應數據特性和實際應用需求,一個非常合理的科學與工程上的最佳化選擇,是我們想要抓住即時數據價值,非走不可的一條路!

邊緣 AI 的實戰魅力:從工廠到倉儲,再到你的工作桌

知道要把 AI 算力搬到邊緣了,接下來的問題就是─邊緣 AI 究竟強在哪裡呢?它強就強在能夠做到「深度感知(Deep Perception)」!

-----廣告,請繼續往下閱讀-----

所謂深度感知,並非僅僅是對數據進行簡單的加加減減,而是透過如深度神經網路這類複雜的 AI 模型,從原始數據裡面,去「理解」出更高層次、更具意義的資訊。

研華科技為例,旗下已有多項邊緣 AI 的實戰應用。以工業瑕疵檢測為例,利用物件偵測模型,快速將工業產品中的瑕疵挑出來,而且由於 AI 模型可以使用同一套參數去檢測,因此品管上能達到一致性,減少人為疏漏。尤其在高產能工廠中,檢測速度必須快、狠、準。研華這套 AI 系統每分鐘最高可處理 8,000 件產品,替工廠節省大量人力,同時確保品質穩定。這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。

這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。/ 圖片提供:研華科技

此外,在智慧倉儲場域,研華與威剛合作,研華與威剛聯手合作,在 MIC-732AO 伺服器上搭載輝達的 Nova Orin 開發平台,打造倉儲系統的 AMR(Autonomous Mobile Robot) 自走車。這跟過去在倉儲系統中使用的自動導引車 AGV 技術不一樣,AMR 不需要事先規劃好路線,靠著感測器偵測,就能輕鬆避開障礙物,識別路線,並且將貨物載到指定地點存放。

當然,還有語言模型的應用。例如結合檢索增強生成 ( RAG ) 跟上下文學習 ( in-context learning ),除了可以做備忘錄跟排程規劃以外,還能將實務上碰到的問題記錄下來,等到之後碰到類似的問題時,就能詢問 AI 並得到解答。

你或許會問,那為什麼不直接使用 ChatGPT 就好了?其實,對許多企業來說,內部資料往往具有高度機密性與商業價值,有些場域甚至連手機都禁止員工帶入,自然無法將資料上傳雲端。對於重視資安,又希望運用 AI 提升效率的企業與工廠而言,自行部署大型語言模型(self-hosted LLM)才是理想選擇。而這樣的應用,並不需要龐大的設備。研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。

但問題也接著浮現:要在這麼小的設備上跑大型 AI 模型,會不會太吃資源?這正是目前 AI 領域最前沿、最火熱的研究方向之一:如何幫 AI 模型進行「科學瘦身」,又不減智慧。接下來,我們就來看看科學家是怎麼幫 AI 減重的。

-----廣告,請繼續往下閱讀-----

語言模型瘦身術之一:量化(Quantization)—用更精簡的數位方式來表示知識

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。這其實跟圖片壓縮有點像:有些畫面細節我們肉眼根本看不出來,刪掉也不影響整體感覺,卻能大幅減少檔案大小。

模型量化的原理也是如此,只不過對象是模型裡面的參數。這些參數原先通常都是以「浮點數」表示,什麼是浮點數?其實就是你我都熟知的小數。舉例來說,圓周率是個無窮不循環小數,唸下去就會是3.141592653…但實際運算時,我們常常用 3.14 或甚至直接用 3,也能得到夠用的結果。降低模型參數中浮點數的精度就是這個意思! 

然而,量化並不是那麼容易的事情。而且實際上,降低精度多少還是會影響到模型表現的。因此在設計時,工程師會精密調整,確保效能在可接受範圍內,達成「瘦身不減智」的目標。

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。/ 圖片來源:MotionArray

模型剪枝(Model Pruning)—基於重要性的結構精簡

建立一個 AI 模型,其實就是在搭建一整套類神經網路系統,並訓練類神經元中彼此關聯的參數。然而,在這麼多參數中,總會有一些參數明明佔了一個位置,卻對整體模型沒有貢獻。既然如此,不如果斷將這些「冗餘」移除。

這就像種植作物的時候,總會雜草叢生,但這些雜草並不是我們想要的作物,這時候我們就會動手清理雜草。在語言模型中也會有這樣的雜草存在,而動手去清理這些不需要的連結參數或神經元的技術,就稱為 AI 模型的模型剪枝(Model Pruning)。

-----廣告,請繼續往下閱讀-----

模型剪枝的效果,大概能把100變成70這樣的程度,說多也不是太多。雖然這樣的縮減對於提升效率已具幫助,但若我們要的是一個更小幾個數量級的模型,僅靠剪枝仍不足以應對。最後還是需要從源頭著手,採取更治本的方法:一開始就打造一個很小的模型,並讓它去學習大模型的知識。這項技術被稱為「知識蒸餾」,是目前 AI 模型壓縮領域中最具潛力的方法之一。

知識蒸餾(Knowledge Distillation)—讓小模型學習大師的「精髓」

想像一下,一位經驗豐富、見多識廣的老師傅,就是那個龐大而強悍的 AI 模型。現在,他要培養一位年輕學徒—小型 AI 模型。與其只是告訴小型模型正確答案,老師傅 (大模型) 會更直接傳授他做判斷時的「思考過程」跟「眉角」,例如「為什麼我會這樣想?」、「其他選項的可能性有多少?」。這樣一來,小小的學徒模型,用它有限的「腦容量」,也能學到老師傅的「智慧精髓」,表現就能大幅提升!這是一種很高級的訓練技巧,跟遷移學習有關。

舉個例子,當大型語言模型在收到「晚餐:鳳梨」這組輸入時,它下一個會接的詞語跟機率分別為「炒飯:50%,蝦球:30%,披薩:15%,汁:5%」。在知識蒸餾的過程中,它可以把這套機率表一起教給小語言模型,讓小語言模型不必透過自己訓練,也能輕鬆得到這個推理過程。如今,許多高效的小型語言模型正是透過這項技術訓練而成,讓我們得以在資源有限的邊緣設備上,也能部署愈來愈強大的小模型 AI。

但是!即使模型經過了這些科學方法的優化,變得比較「苗條」了,要真正在邊緣環境中處理如潮水般湧現的資料,並且高速、即時、穩定地運作,仍然需要一個夠強的「引擎」來驅動它們。也就是說,要把這些經過科學千錘百鍊、但依然需要大量計算的 AI 模型,真正放到邊緣的現場去發揮作用,就需要一個強大的「硬體平台」來承載。

-----廣告,請繼續往下閱讀-----

邊緣 AI 的強心臟:SKY-602E3 的三大關鍵

像研華的 SKY-602E3 塔式 GPU 伺服器,就是扮演「邊緣 AI 引擎」的關鍵角色!那麼,它到底厲害在哪?

一、核心算力
它最多可安裝 4 張雙寬度 GPU 顯示卡。為什麼 GPU 這麼重要?因為 GPU 的設計,天生就擅長做「平行計算」,這正好就是 AI 模型裡面那種海量數學運算最需要的!

你想想看,那麼多數據要同時處理,就像要請一大堆人同時算數學一樣,GPU 就是那個最有效率的工具人!而且,有多張 GPU,代表可以同時跑更多不同的 AI 任務,或者處理更大流量的數據。這是確保那些科學研究成果,在邊緣能真正「跑起來」、「跑得快」、而且「能同時做更多事」的物理基礎!

二、工程適應性——塔式設計。
邊緣環境通常不是那種恆溫恆濕的標準機房,有時是在工廠角落、辦公室一隅、或某個研究實驗室。這種塔式的機箱設計,體積相對緊湊,散熱空間也比較好(這對高功耗的 GPU 很重要!),部署起來比傳統機架式伺服器更有彈性。這就是把高性能計算,進行「工程化」,讓它能適應台灣多樣化的邊緣應用場景。

三、可靠性
SKY-602E3 用的是伺服器等級的主機板、ECC 糾錯記憶體、還有備援電源供應器等等。這些聽起來很硬的規格,背後代表的是嚴謹的工程可靠性設計。畢竟在邊緣現場,系統穩定壓倒一切!你總不希望 AI 分析跑到一半就掛掉吧?這些設計確保了部署在現場的 AI 系統,能夠長時間、穩定地運作,把實驗室裡的科學成果,可靠地轉化成實際的應用價值。

-----廣告,請繼續往下閱讀-----
研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。/ 圖片提供:研華科技

台灣製造 × 在地智慧:打造專屬的邊緣 AI 解決方案

研華科技攜手八維智能,能幫助企業或機構提供客製化的AI解決方案。他們的技術能力涵蓋了自然語言處理、電腦視覺、預測性大數據分析、全端軟體開發與部署,及AI軟硬體整合。

無論是大小型語言模型的微調、工業瑕疵檢測的模型訓練、大數據分析,還是其他 AI 相關的服務,都能交給研華與八維智能來協助完成。他們甚至提供 GPU 與伺服器的租借服務,讓企業在啟動 AI 專案前,大幅降低前期投入門檻,靈活又實用。

台灣有著獨特的產業結構,從精密製造、城市交通管理,到因應高齡化社會的智慧醫療與公共安全,都是邊緣 AI 的理想應用場域。更重要的是,這些情境中許多關鍵資訊都具有高度的「時效性」。像是產線上的一處異常、道路上的突發狀況、醫療設備的即刻警示,這些都需要分秒必爭的即時回應。

如果我們還需要將數據送上雲端分析、再等待回傳結果,往往已經錯失最佳反應時機。這也是為什麼邊緣 AI,不只是一項技術創新,更是一條把尖端 AI 科學落地、真正發揮產業生產力與社會價值的關鍵路徑。讓數據在生成的那一刻、在事件發生的現場,就能被有效的「理解」與「利用」,是將數據垃圾變成數據黃金的賢者之石!

👉 更多研華Edge AI解決方案
👉 立即申請Server租借

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

1
0

文字

分享

0
1
0
數智驅動未來:從信任到執行,AI 為企業創新賦能
鳥苷三磷酸 (PanSci Promo)_96
・2025/01/13 ・4938字 ・閱讀時間約 10 分鐘

本文由 鼎新數智 與 泛科學 共同規劃與製作

你有沒有想過,當 AI 根據病歷與 X 光片就能幫你診斷病症,或者決定是否批准貸款,甚至從無人機發射飛彈時,它的每一步「決策」是怎麼來的?如果我們不能知道 AI 的每一個想法步驟,對於那些 AI 輔助的診斷和判斷,要我們如何放心呢?

馬斯克與 OpenAI 的奧特曼鬧翻後,創立了新 AI 公司 xAI,並推出名為 Grok 的產品。他宣稱目標是以開源和可解釋性 AI 挑戰其他模型,而 xAI 另一個意思是 Explainable AI 也就是「可解釋性 AI」。

如今,AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?

-----廣告,請繼續往下閱讀-----
AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?圖/pexels

黑盒子模型背後的隱藏秘密

無法解釋的 AI 究竟會帶來多少問題?試想,現在許多銀行和貸款機構已經使用 AI 評估借貸申請者的信用風險,但這些模型往往如同黑箱操作。有人貸款被拒,卻完全不知原因,感覺就像被分手卻不告訴理由。更嚴重的是,AI 可能擅自根據你的住所位置或社會經濟背景給出負面評價,這些與信用風險真的相關嗎?這種不透明性只會讓弱勢群體更難融入金融體系,加劇貧富差距。這種不透明性,會讓原本就已經很難融入金融體系的弱勢群體,更加難以取得貸款,讓貧富差距越來越大,雪上加霜。

AI 不僅影響貸款,還可能影響司法公正性。美國部分法院自 2016 年起使用「替代性制裁犯罪矯正管理剖析軟體」 COMPAS 這款 AI 工具來協助量刑,試圖預測嫌犯再犯風險。然而,這些工具被發現對有色人種特別不友好,往往給出偏高的再犯風險評估,導致更重的刑罰和更嚴苛的保釋條件。更令人擔憂的是,這些決策缺乏透明度,AI 做出的決策根本沒法解釋,這讓嫌犯和律師無法查明問題根源,結果司法公正性就這麼被悄悄削弱了。

此外,AI 在醫療、社交媒體、自駕車等領域的應用,也充滿類似挑戰。例如,AI 協助診斷疾病,但若原因報告無法被解釋,醫生和患者又怎能放心?同樣地,社群媒體或是 YouTube 已經大量使用 AI 自動審查,以及智慧家居或工廠中的黑盒子問題,都像是一場越來越複雜的魔術秀——我們只看到結果,卻無法理解過程。這樣的情況下,對 AI 的信任感就成為了一個巨大的挑戰。

為什麼人類設計的 AI 工具,自己卻無法理解?

原因有二。首先,深度學習模型結構複雜,擁有數百萬參數,人類要追蹤每個輸入特徵如何影響最終決策結果,難度極高。例如,ChatGPT 中的 Transformer 模型,利用注意力機制(Attention Mechanism)根據不同詞之間的重要性進行特徵加權計算,因為機制本身涉及大量的矩陣運算和加權計算,這些數學操作使得整個模型更加抽象、不好理解。

-----廣告,請繼續往下閱讀-----

其次,深度學習模型會會從資料中學習某些「特徵」,你可以當作 AI 是用畫重點的方式在學習,人類劃重點目的是幫助我們加速理解。AI 的特徵雖然也能幫助 AI 學習,但這些特徵往往對人類來說過於抽象。例如在影像辨識中,人類習慣用眼睛、嘴巴的相對位置,或是手指數量等特徵來解讀一張圖。深度學習模型卻可能會學習到一些抽象的形狀或紋理特徵,而這些特徵難以用人類語言描述。

深度學習模型通常採用分佈式表示(Distributed Representation)來編碼特徵,意思是將一個特徵表示為一個高維向量,每個維度代表特徵的不同方面。假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。對 AI 而言,這是理解世界的方式,但對人類來說,卻如同墨跡測驗般難以解讀。

假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。圖/unsplash

試想,AI 協助診斷疾病時,若理由是基於醫生都無法理解的邏輯,患者即使獲得正確診斷,也會感到不安。畢竟,人們更相信能被理解的東西。

打開黑盒子:可解釋 AI 如何運作?我們要如何教育 AI?

首先,可以利用熱圖(heatmap)或注意力圖這類可視化技術,讓 AI 的「思維」有跡可循。這就像行銷中分析消費者的視線停留在哪裡,來推測他們的興趣一樣。在卷積神經網絡和 Diffusion Models 中 ,當 AI 判斷這張照片裡是「貓」還是「狗」時,我需要它向我們展示在哪些地方「盯得最緊」,像是耳朵的形狀還是毛色的分布。

-----廣告,請繼續往下閱讀-----

其次是局部解釋,LIME 和 SHAP 是兩個用來發展可解釋 AI 的局部解釋技術。

SHAP 的概念來自博弈,它將每個特徵看作「玩家」,而模型的預測結果則像「收益」。SHAP 會計算每個玩家對「收益」的貢獻,讓我們可以了解各個特徵如何影響最終結果。並且,SHAP 不僅能透過「局部解釋」了解單一個結果是怎麼來的,還能透過「全局解釋」理解模型整體的運作中,哪些特徵最重要。

以實際的情景來說,SHAP 可以讓 AI 診斷出你有某種疾病風險時,指出年齡、體重等各個特徵的影響。

LIME 的運作方式則有些不同,會針對單一個案建立一個簡單的模型,來近似原始複雜模型的行為,目的是為了快速了解「局部」範圍內的操作。比如當 AI 拒絕你的貸款申請時,LIME 可以解釋是「收入不穩定」還是「信用紀錄有問題」導致拒絕。這種解釋在 Transformer 和 NLP 應用中廣泛使用,一大優勢是靈活且計算速度快,適合臨時分析不同情境下的 AI 判斷。比方說在醫療場景,LIME 可以幫助醫生理解 AI 為何推薦某種治療方案,並說明幾個主要原因,這樣醫生不僅能更快做出決策,也能增加患者的信任感。

-----廣告,請繼續往下閱讀-----

第三是反事實解釋:如果改變一點點,會怎麼樣?

如果 AI 告訴你:「這家銀行不會貸款給你」,這時你可能會想知道:是收入不夠,還是年齡因素?這時你就可以問 AI:「如果我年輕五歲,或者多一份工作,結果會怎樣?」反事實解釋會模擬這些變化對結果的影響,讓我們可以了解模型究竟是如何「權衡利弊」。

最後則是模型內部特徵的重要性排序。這種方法能顯示哪些輸入特徵對最終結果影響最大,就像揭示一道菜中,哪些調味料是味道的關鍵。例如在金融風險預測中,模型可能指出「收入」影響了 40%,「消費習慣」占了 30%,「年齡」占了 20%。不過如果要應用在像是 Transformer 模型等複雜結構時,還需要搭配前面提到的 SHAP 或 LIME 以及可視化技術,才能達到更完整的解釋效果。

講到這裡,你可能會問:我們距離能完全信任 AI 還有多遠?又或者,我們真的應該完全相信它嗎?

-----廣告,請繼續往下閱讀-----

我們終究是想解決人與 AI 的信任問題

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。因此,AI 既要「可解釋」,也要「能代理」。

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。圖/unsplash

舉例來說,當一家公司要做一個看似「簡單」的決策時,背後的過程其實可能極為複雜。例如,快時尚品牌決定是否推出新一季服裝,不僅需要考慮過去的銷售數據,還得追蹤熱門設計趨勢、天氣預測,甚至觀察社群媒體上的流行話題。像是暖冬來臨,厚外套可能賣不動;或消費者是否因某位明星愛上一種顏色,這些細節都可能影響決策。

這些數據來自不同部門和來源,龐大的資料量與錯綜關聯使企業判斷變得困難。於是,企業常希望有個像經營大師的 AI 代理人,能吸收數據、快速分析,並在做決定時不僅給出答案,還能告訴你「為什麼要這麼做」。

傳統 AI 像個黑盒子,而可解釋 AI (XAI)則清楚解釋其判斷依據。例如,為什麼不建議推出厚外套?可能理由是:「根據天氣預測,今年暖冬概率 80%,過去三年數據顯示暖冬時厚外套銷量下降 20%。」這種透明解釋讓企業更信任 AI 的決策。

-----廣告,請繼續往下閱讀-----

但會解釋還不夠,AI 還需能真正執行。這時,就需要另一位「 AI 代理人」上場。想像這位 AI 代理人是一位「智慧產品經理」,大腦裝滿公司規則、條件與行動邏輯。當客戶要求變更產品設計時,這位產品經理不會手忙腳亂,而是按以下步驟行動:

  1. 檢查倉庫物料:庫存夠不夠?有沒有替代料可用?
  2. 評估交期影響:如果需要新物料,供應商多快能送到?
  3. 計算成本變化:用新料會不會超出成本預算?
  4. 做出最優判斷,並自動生成變更單、工單和採購單,通知各部門配合執行。

這位 AI 代理人不僅能自動處理每個環節,還會記錄每次決策結果,學習如何變得更高效。隨時間推移,這位「智慧產品經理」的判斷將更聰明、決策速度更快,幾乎不需人工干預。更重要的是,這些判斷是基於「以終為始」的原則,為企業成長目標(如 Q4 業績增長 10%)進行連續且動態地自我回饋,而非傳統系統僅月度檢核。

這兩位 AI 代理人的合作,讓企業決策流程不僅透明,還能自動執行。這正是數智驅動的核心,不僅依靠數據驅動決策,還要能解釋每一個選擇,並自動行動。這個過程可簡化為 SUPA,即「感知(Sensing)→ 理解(Understanding)→ 規劃(Planning)→ 行動(Acting)」的閉環流程,隨著數據的變化不斷進化。

偉勝乾燥工業為例,他們面臨高度客製化與訂單頻繁變更的挑戰。導入鼎新 METIS 平台後,偉勝成功將數智驅動融入業務與產品開發,專案準時率因此提升至 80%。他們更將烤箱技術與搬運機器人結合,開發出新形態智慧化設備,成功打入半導體產業,帶動業績大幅成長,創造下一個企業的增長曲線。

-----廣告,請繼續往下閱讀-----

值得一提的是,數智驅動不僅帶動業務增長,還讓員工擺脫繁瑣工作,讓工作更輕鬆高效。

數智驅動的成功不僅依賴技術,還要與企業的商業策略緊密結合。為了讓數智驅動真正發揮作用,企業首先要確保它服務於具體的業務需求,而不是為了技術而技術。

這種轉型需要有策略、文化和具體應用場景的支撐,才能讓數智驅動真正成為企業持續增長的動力。

還在猶豫數智驅動的威力?免費上手企業 AI 助理!👉 企業 AI 體驗
現在使用專屬邀請碼《 KP05 》註冊就享知:https://lihi.cc/EDUk4
訂閱泛科學獨家知識頻道,深入科技趨勢與議題內容。

👉立即免費加入

-----廣告,請繼續往下閱讀-----
鳥苷三磷酸 (PanSci Promo)_96
225 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

1
1

文字

分享

0
1
1
貓咪也會學鳥叫?揭秘貓貓發出「喀喀聲」背後的可能原因
F 編_96
・2024/12/24 ・2480字 ・閱讀時間約 5 分鐘

F 編按:本文編譯自 Live Science

貓是一種神秘而又引人注目的動物,牠們看似深居簡出,但擁有多元的聲音表達:從吸引人類注意的「喵喵叫」,到面對威脅時的「嘶嘶聲」與低沉的「咆哮」。

延伸閱讀:貓咪為什麼總愛對人喵喵叫?看貓如何用聲音征服人類的心

然而,細心的貓奴們可能會注意到,貓有時會對著窗外的鳥兒或屋內小動物玩具,發出一種獨特的「卡卡聲」或「咯咯聲」。這種聲音既像牙齒打顫,又好似一陣陣輕微的顫鳴,卻很難歸類到常見的喵叫或咆哮裡。這種名為「chatter」的行為,究竟在貓的生活中扮演什麼角色?目前科學界尚未對此有定論,但有幾種廣為討論的假說,或許能為我們提供一些思考方向。

卡卡叫:情緒的釋放或表達?

有些貓行為專家推測,貓咪在看到獵物(如窗外的鳥、老鼠)卻無法接近時,會因「欲捕無法」的挫折感或興奮感,發出這種「卡卡聲」。就像人類遇到障礙時,可能會發出抱怨的咕噥聲或乾著急的嘆息聲一樣,貓咪的「喀喀聲」也可能只是把當下的情緒外顯,並非有特別針對人或其他動物的溝通目的。

  • 情緒假說
    • 挫折:當貓看見鳥兒在窗外飛舞卻無法撲殺,內心焦躁,遂用聲音抒發。
    • 興奮:或許貓在準備捕獵時也感到高度亢奮,因此嘴部不自覺抖動並出聲。
貓咪的「喀喀聲」可能源於挫折或興奮情緒,表達捕獵受阻的內在反應。圖/envato

要在科學上驗證「情緒假說」並不容易,因為需要同時測量貓咪行為和生理指標。例如,研究人員可能需要測量貓咪在卡卡叫時的壓力荷爾蒙變化,才能確認牠們究竟是帶著正面興奮,或是負面挫折的情緒。不過,由於貓的獨立特質,實驗設計往往困難重重,樣本量要足夠也不容易,所以至今沒有定論。

-----廣告,請繼續往下閱讀-----

增強嗅覺?貓咪的「第二鼻子」

另一種說法則認為,貓咪發出「卡卡聲」時,可能同時開啟了其位於口腔上顎的「犁鼻器」(vomeronasal organ),也稱作「賈氏器官(Jacobson’s organ)」。這個感知器官能捕捉一般鼻腔聞不到的化學分子,如費洛蒙或特定氣味分子,因此對貓的求偶、社交和獵捕行為都非常重要。

  • 嗅覺假說
    • 張口呼吸:如果貓咪一邊「咯咯咯」地開合上下顎,可能在嘗試讓空氣(及其中所含的氣味分子)進入犁鼻器。
    • 蒐集更多環境資訊:在確定下手前,更完整的嗅覺分析或能提高牠們獵捕成功率,或是幫助判斷環境中是否有其他潛在威脅或機會。

然而,要科學驗證「增強嗅覺假說」同樣不簡單。研究人員不僅要觀察貓咪在卡卡叫時的行為,也需要測量牠們是否真的打開了更大的氣道,並在那個同時有效使用犁鼻器。這些行為與生理測量都必須在相對可控卻又不影響貓自由行動的實驗環境中進行,實務上難度頗高。

聲音模仿:貓咪的「偽鳥叫」?

貓咪的「卡卡聲」或許是為了模仿獵物的聲音,讓獵物降低警戒。圖/envato

第三種最有趣也最具「野性色彩」的假說,是「模仿獵物聲音」。在野外,一些中南美洲的小型貓科動物(例如:長尾虎貓,又稱美洲豹貓或瑪家貓,Margay)曾被觀察到,在捕獵小猴群時,發出類似猴子叫聲的音調;有些當地原住民族群也傳說,叢林裡的某些捕食者會模仿目標獵物的聲音來誘捕。由此推測,家貓看到鳥兒時發出的「卡卡聲」,可能包含些微模仿鳥兒啁啾的元素,試圖降低獵物警戒或甚至吸引獵物靠近。

  • 模仿假說
    • 案例參考:野生貓科動物曾出現學習或偽裝聲音的紀錄。
    • 家貓可能繼承的行為:家貓的祖先——北非野貓(African wildcat)及其他小型貓科物種,是否具備聲音模仿能力?這在生物演化研究上仍是未解之謎。
    • 缺乏大規模觀察:由於小型野生貓科動物研究資料有限,且家貓實驗更不易做大樣本長期追蹤,最終導致此理論尚未獲得廣泛實證。

貓咪行為研究的挑戰:野性祖先的重要性

探討貓咪行為,常常需要回溯至野生祖先的棲地環境。家貓(Felis catus)普遍被認為源自北非野貓(Felis lybica),然而,野貓習性的研究本就不多,尤其是關於聲音與捕獵策略更是資料有限。我們想知道「為什麼家貓會卡卡叫」,首先要確定:「牠們的野性祖先或其他小型貓科,也有同樣的行為嗎?」若有,家貓則可能繼承自古老基因;若無,則可能是家貓在與人類共處的環境中演化出的新行為。

-----廣告,請繼續往下閱讀-----
如果要探查家貓「卡卡叫」的原因,還需要了解其祖先或其他小型貓科是否具有類似行為。圖/envato

再者,貓在實驗室中的「不可控」因素相當多。貓不像狗般樂於服從人類指令,常有自己的規律與個性。要在實驗情境下穩定地誘發貓的「卡卡叫」行為、同時檢測牠們的生理和心理反應,並確保每隻貓的個體差異都被考慮到,這些都對研究團隊是極大考驗。

對於許多貓奴來說,貓咪坐在窗邊,一邊盯著外頭的鳥兒或松鼠,一邊發出獨特的「卡卡聲」,是一幕既可愛又神祕的風景。究竟牠們是在抒發情緒、強化嗅覺、抑或真的在「假扮鳥叫」以誘捕獵物?目前沒有確切的答案。然而,也正因為這層未知,貓貓才更顯得迷人。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

F 編_96
20 篇文章 ・ 1 位粉絲
一個不小心闖入霍格華茲(科普)的麻瓜(文組).原泛科學編輯.現任家庭小精靈,至今仍潛伏在魔法世界中💃