Loading [MathJax]/extensions/tex2jax.js

2

6
7

文字

分享

2
6
7

宇宙是靜態還是在膨脹?又是誰先發現宇宙微波背景輻射?

賴昭正_96
・2022/04/22 ・6136字 ・閱讀時間約 12 分鐘

-----廣告,請繼續往下閱讀-----

  • 文/賴昭正 前清大化學系教授、系主任、所長;合創科學月刊

有心栽花花不開,無心插柳柳成蔭

-明代《增廣賢文》

在十六世紀以前,宇宙的起源、歷史、與結構一直被認為是屬於宗教與哲學的範圍,因此最初的許多宇宙論都是以人為中心、基於神話和傳說,並認為宇宙是永恆不變的。

為什麼是永恆不變的?一個正在改變的宇宙,便應該有面臨終結的命運,這似乎不符合超越人類之創世者存在的宗教信仰。

因此 17 世紀末至 19 世紀初之歐洲啟蒙時代(也稱為理性時代)雖然企圖擺脫對宗教盲目的信仰,追求通過理性和感官證據去獲得知識,但似乎並未改變科學家深信自盤古開天闢地以來,宇宙是靜態、永恆不變的根深蒂固想法。

牛頓在 1687 年提出萬有引力來闡述宇宙星球的運行,但只有一個吸引力的宇宙是不可能保持靜態的,因此牛頓理論需要一個持續的奇蹟來保持宇宙的靜態,防止宇宙的崩潰(即防止宇宙因為太陽和恆星被拉到一起而崩潰)[1]

愛因斯坦 1915 年發表包括重力在內的廣義相對論後,當然也思考著宇宙結構的問題。但他 1917 年所提出來的宇宙模型也像其它只有吸引力的模型一樣,謂宇宙是不可能保持靜態,只能膨脹或收縮!所以愛因斯坦就將重力方程式做了「少許修改」,讓宇宙能保持靜態。

-----廣告,請繼續往下閱讀-----

1929 年,美國天文學家哈柏(Edwin Hubble)分析了一些從遙遠星群傳來之光譜的測量結果,發現其頻率很有系統地往較低之紅色位移(red shift),其位移值隨星群離我們之距離的增加而加大。顯然地,遙遠星群是依一定的規則在遠離我們:距離我們越遠,後退速率越快,稱為「哈柏–勒梅特定律」(Hubble-Lemaître law)]。

  • 紅移

多普勒效應(Doppler effect)或多普勒頻移(Doppler shift)是因聲音波源及觀察者的相對移動而造成波頻率變化的現象。當波源及觀察者互相接近時,觀察者會測到波源的頻率比原來的高;反之,當他們遠離時,觀察者會測到波源的頻率例比原來的低。頻率的改變與相對速度成正比。因為光也是一種振動,故也有類似的現象。就可見光而言,紅光頻率較低,藍光頻率較高,因此光頻因兩物體互相遠離而變低時,我們稱為「紅移」(redshift);反之,我們稱為「藍移」(blueshift)。

光源相對觀測者的運動導致紅移和藍移。圖/Wikipedia

這無可避免的結論是:宇宙正處於正在膨脹的狀態!此一完全出乎意外的發現,改變了宇宙論這一研究的整個面貌可是哈柏後來辯稱,不確定性的有限數據似乎支持靜止宇宙的概念,但他並沒有明確排除宇宙膨脹的可能性,因此他從未獲得諾貝爾獎——開玩笑的,他真正未得諾貝爾獎的原因見後。

有什麼證據可以說服像牛頓、愛因斯坦、哈柏這樣的大科學家相信宇宙是在膨脹呢?

標準大霹靂宇宙論

一個正在膨脹的宇宙是一個動態改變的宇宙,因此應該具有生命的歷史──甚至可能有出生與死亡。依現在廣為大部份科學家所接受的「標準大霹靂宇宙論」(standard cosmological Big Bang model),現在的宇宙年齡大約是 140 億年。

描述宇宙膨脹的藝術構想圖。圖/Wikipedia

我們雖然對 140 億年前的宇宙結構細節非常不清楚,但大部份的科學家均認為宇宙是由「一個時空特異點」突然大爆炸而出現的──雖然物理學家尚不知道可用什麼理論來解釋該特異點。

-----廣告,請繼續往下閱讀-----

剛爆炸時的宇宙處於一個高度均勻、非常高溫、及高輻射能密度的狀態;大約 10-12 秒後,溫度下降到太陽核心溫度的一億倍時,我們現在所知道的自然力就出現了,此時被稱為夸克的基本粒子在能量海洋中自由遊蕩。大約 10–6 秒時,自由夸克就被限制在中子和質子中。大爆炸一秒鐘後,宇宙充滿了中子、質子、電子、反電子、光子、和中微子。之後,隨著宇宙繼續膨脹,溫度也繼續下降,質子和中子開始結合形成原子核,然後又與電子結合形成現今宇宙中主要成分的氦和氘原子。這些中性原子透過重力開始合併成氣體雲,慢慢演變成恆星。當宇宙膨脹到現在大小的五分之一時,恆星已經形成了可以識別的年輕星系群體。

在電子、質子、和中子結合形成不帶電之原子前,因輻射能直接與帶電體作用,故宇宙是「不透明」的。當宇宙膨脹持續了 38 萬年、比現在小 1000 倍、溫度只有 ~3000K 時,中性原子開始大量出現;宇宙學家稱此一時期為「複合時期(recombination epoch)」。因為中性原子不能散射輻射,故輻射能在其間自由遊蕩,宇宙於是就變「透明」了,宇宙學家稱此一事件為「光子去耦(photon decoupling)」。

黑體輻射光譜

不同溫度的黑體輻射頻譜。隨著溫度下降,頻譜峰值波長增加。圖/Wikipedia

在物理學上,黑體(blackbody)是可以吸收所有入射電磁輻射的理想物理體;因它吸收所有顏色的光,故呈黑色,稱為「黑體」。黑體也發射所有頻率的電磁波,稱為「黑體輻射」;其頻率分佈稱為「黑體輻射光譜」(blackbody radiation spectrum)或「黑體光譜」。

實驗發現黑體光譜與物體之形狀或成分完全無關,只與其溫度有關。古典物理沒辦法解釋黑體光譜,導致了量子力學的發展(詳見《量子的故事》)。處於恆溫之熱平衡狀態的物體會發射該溫度之黑體輻射,其頻率或波長分佈如上圖。

黑體輻射的總能量與其溫度的四次方成正比,稱為「斯特凡-玻爾茲曼定律」(Stefan–Boltzmann law);其光譜的峰值波長與其溫度成反比,稱為「維恩位移定律」(Wien displacement law)。太陽表面溫度約為 6000K,其光譜的峰值落在可見光的範圍,正是我們眼睛所能感應到的電磁波(見上圖)!

-----廣告,請繼續往下閱讀-----

你說這是巧合還是演化的必然結果?

宇宙微波背景輻射—理論

1960 年代,普林斯頓大學物理學家迪克(Robert Dicke)及學生皮布爾斯(Jim Peebles)對 38 萬年前可以自由地穿過宇宙的輻射感到興趣,開始探討這些輻射遺留下來的可能性。他們推論說:如果宇宙是根據大爆炸理論創造的,那麼在「光子去耦」時,這些輻射應與物質作用達到平衡,其頻率分佈應是 3000K 之黑體輻射的光譜,強度最高的輻射在紅外線區(波長約為 970 nm)。托爾曼(Richard Tolman)在 1934 年的《相對論、熱力學和宇宙學》一書謂:宇宙因膨脹而溫度一直在下降,輻射頻率的分佈當然也一直隨其溫度在改變,但卻永遠保持著黑體輻射的分佈特性。

去耦時的宇宙大約比現在小 1000 倍,溫度大約為 3000K,因此當宇宙空間膨脹到現在之值時,當時之黑體輻射峰值波長便應該增長 1000 倍到微波範圍的 970 μm。因黑體光譜的峰值波長與其溫度成反比,故如果黑體輻射峰值波長增長 1000 倍,黑體的溫度便應該下降 1000 倍到 ~3K。所以現在的宇宙應充滿著 ~3K 的黑體輻射,稱為「宇宙微波背景輻射」(cosmic microwave background radiation,縮寫為 CMB 或 CMBR)。

根據 WMAP 對宇宙微波背景輻射的觀測所繪制的圖像。圖/Wikipedia

迪克及皮布爾斯都是動嘴不動手的理論物理學家,因此只好說服同事威爾金森(David Wilkinson)和羅爾(Peter Roll)去安裝天線搜索這些輻射(有心栽花…… )。

宇宙微波背景輻射——偵測

幾乎就在同時,貝爾實驗室的彭齊亞斯(Arno Penzias)和威爾遜(Robert Wilson)抓住機會,將該實驗室本想作廢的一個巨大的 20 英尺喇叭形天線,轉來作為輻射望遠鏡,以放大和測量來自星系之空間的無線電信號。為此,他們必須消除來自地面之雷達和無線電廣播的影響,並通過液氦冷卻接收器本身來抑制其核心的干擾。

在排除了能想到的一切過量輻射的來源後,他們發現接收器中仍持續存在有一種低沉、穩定、神秘的噪音。這殘留的噪音不但比他們預想的強烈一百倍,還晝夜均勻地散佈在天空;他們再次徹底檢查了設備,甚至清理了一些堆積在天線中的鴿子糞便後,噪音依然存在。顯然地,這 7.35 厘米波長的輻射不是來自地球、太陽、或我們的銀河系,而是來自銀河系外。可是什麼地方呢?

彭齊亞斯和威爾遜站在霍姆德爾號角天線下。圖/Wikipedia

當麻省理工學院物理學教授伯克(Bernard Burke)告訴彭齊亞斯他曾看到皮布爾斯的一篇預印本論文,討論在宇宙出現後可能留下的輻射時,彭齊亞斯和威爾遜立刻意識到他們之發現的可能重要性。彭齊亞斯打了電話給就在附近工作之迪克,要了一份尚未發表的皮布爾斯論文。讀完該論文後,彭齊亞斯又打了電話給迪克,邀請他到貝爾實驗室看喇叭天線,欣賞背景噪音。迪克與貝爾實驗室的研究人員分享了他的理論工作後,認為後者(無心插柳)所發現的微波輻射正是他們正在尋找的大爆炸的標誌(柳成蔭)。

-----廣告,請繼續往下閱讀-----

為了避免潛在的衝突,他們決定聯合發布他們的結果。 兩封快報同時迅速地在 1965 年的《天體物理學雜誌》(Astrophysical Journal)出現。在該雜誌裡,迪克和他的同事先概述了宇宙背景輻射作為大爆炸理論證據的重要性,然後彭齊亞斯和威爾遜報告了 3.5K 之殘餘背景噪音實驗,並謂迪克快報中的理論正可能是噪音的來源。

彭齊亞斯回憶說:「當我們第一次聽到莫名其妙的嗡嗡聲時,我們不明白它的意義,我們做夢也沒有想到它會與宇宙的起源有關。直到我們對聲音的起源用盡了所有可能的解釋後,我們才意識到我們偶然發現了一件大事。」彭齊亞斯和威爾遜因意外發現「微波背景輻射」而獲得了 1978 年的諾貝爾物理學獎。提供理論解釋的迪克及皮布爾斯則被排除在外[2]。據皮布爾斯的回憶:迪克在掛斷彭齊亞斯之電話後,曾無奈地向普林斯頓大學的同事說:「完了,同事們,我們被別人捷足先登了(Well, boys, we’ve been scooped.)」。皮布爾斯雖然在 1978 年與諾貝爾獎失之交臂,但在 2019 年還是因在物理宇宙學方面的貢獻而獲得諾貝爾物理學獎。

宇宙微波背景輻射——誰先提出?

事實上早在 1941 年科學界就開始有幾個對宇宙空間溫度的估計,但這些估計存在兩個缺陷。

首先,它們是對宇宙空間有效溫度的測量,並不表明宇宙空間充滿了黑體光譜。

-----廣告,請繼續往下閱讀-----

其次,它們依賴於地球在銀河系邊緣的特殊位置,也沒有表明輻射分佈與方向無關。儘管如此,現在很多文獻都錯誤地認為第一位提出宇宙微波背景輻射的科學家是名科普作家伽莫(George Gamow)。

1940 年代初期,伽莫想知道早期宇宙的條件是否會產生科學家現在所觀察到的氫、氦、和其他元素。這項研究需要核物理知識,但當時美國的大多數核物理學家都被招募去發展原子彈,因此伽莫基本上是獨自一人在研究核合成問題。伽莫本人並不特別擅長數學計算,因此建議他的博士生阿爾弗(Ralph Alpher)去做這雜事。他們假設大爆炸後的宇宙非常熱、充滿了中子,原子核是透過一次捕獲一個中子而形成的,偶爾原子核會衰變產生一個更重的原子核(加上一個電子和一個中微子)。在 1948 年 4 月的論文裡,他們成功地預測了宇宙中氫和氦的比例(佔所有原子的 99.99%),為大爆炸模型的另一次重大勝利。

在上面提到的 1948 年的論文裡,伽莫和阿爾弗並沒有提到「宇宙初始膨脹的殘餘輻射」。幾個月後,阿爾弗和約翰霍普金斯大學同事赫爾曼(Robert Herman)發表了另一篇論文,謂現今觀察到的氫和氦濃度說明了在宇宙誕生後的幾分鐘內,宇宙的溫度曾經處於十億度的範圍內;並預測那早期宇宙中強烈輻射的微弱殘餘現今大約在「5K 左右」(兩年後他們重新估計為 28K)。事實上,阿爾弗說伽莫最初是反對這一預測的;他在 1997 年 8 月 25 日的一封信中寫道:

1948 年末,我和赫爾曼發表那篇論文後,伽莫三年來對預測(宇宙背景溫度)的貢獻一直是:對其正確性及意義強烈地表達了保留意見。後來他返回(這題目)並發表了幾篇論文,在理論上承認了這種輻射的存在,但繼續錯誤地計算其性質,混淆了數年的(歷史)文獻!

結論——從背景輻射,到恆星的「種子」

事實上彭齊亞斯和威爾遜並沒有探測到輻射具有黑體的光譜分佈;在 8 個月後,威爾金森和羅爾的實驗才總算開花顯示出 2.7K 光譜分佈的證據。但完全證明輻射的黑體性質則在更長的時間後才出現。靜態宇宙論雖然也可以解釋宇宙背景溫度,卻沒辦法解釋其光譜分佈,因此黑體微波背景輻射光譜的發現終於鞏固了大霹靂宇宙論在天文學上的地位!

-----廣告,請繼續往下閱讀-----

一個在空間均勻分佈的輻射怎麼可能產生星球呢?因此這一充滿空間的輻射必須有一些局部變化⎯⎯無論多麼輕微,來提供形成物體的「種子」。1970 年代,天文學家發現了宇宙背景輻射在不同方向上確實有些微差異。這一發現激發了美國宇航局投入數十億美元,在戈達德太空飛行中心(Goddard Space Flight Center)開始研製一種不僅可以測量背景輻射的變化,還可以證明它是黑體輻射的「宇宙背景探測器」 (COsmic Background Explore;COBE)衛星。

「宇宙背景探測器」 (COsmic Background Explore;COBE)衛星。圖/Wikipedia

宇宙背景探測器於 1989 年發射。它準備花四年的時間來觀察蒐集資料。但在幾個小時內,它就證明了宇宙背景輻射的光譜分佈確實是黑體,完全符合與來自大爆炸時的理論計算。在 1992 年 4 月 3 日的新聞發布會上,加州大學柏克萊分校的天文物理學家斯穆特(George Smoot)宣布衛星探測器偵測到了宇宙微波背景的微小波動,為研究早期宇宙的一個突破:「我們觀察到早期宇宙中最古老和最大的現代結構(如星系、星系團等)的原始種子。不僅如此,它們也是(宇宙)創造時期遺留下來的時空結構中的巨大漣漪」;並謂「如果你有宗教信仰,那就像是看到了上帝」。馬瑟(John Mather)與斯穆特「因發現了宇宙微波背景輻射的黑體形式和各向異性」而獲得 2006 年諾貝爾物理學獎。

哈柏的發現改變了整個宇宙論研究的面貌,這麼大的貢獻,為什麼他從未獲得諾貝爾獎呢?原來那時的諾貝爾獎物理委員會不承認天文學是物理!因為這個關係,哈柏後來一直在努力爭取諾貝爾獎承認天文為一物理學的工作。

註解

  • 註 1:因為正在撰寫這篇文章,筆者在此就賣個關子,不談牛頓如何解決這個問題。
  • 註 2:是否因諾貝爾獎最多只能給三人之故就不得而知了。有趣的是:當初楊振寧與李政道因提出理論而獲得諾貝爾獎,吳建雄及雷德曼(Leon Lederman)之實驗驗證則被排除在外。

延伸閱讀

-----廣告,請繼續往下閱讀-----
文章難易度
所有討論 2
賴昭正_96
46 篇文章 ・ 59 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此獲有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪,IBM顧問研究化學家退休 。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

0

1
0

文字

分享

0
1
0
拆解邊緣AI熱潮:伺服器如何提供穩固的運算基石?
鳥苷三磷酸 (PanSci Promo)_96
・2025/05/21 ・5071字 ・閱讀時間約 10 分鐘

本文與 研華科技 合作,泛科學企劃執行。

每次 NVIDIA 執行長黃仁勳公開發言,總能牽動整個 AI 產業的神經。然而,我們不妨設想一個更深層的問題——如今的 AI 幾乎都倚賴網路連線,那如果哪天「網路斷了」,會發生什麼事?

想像你正在自駕車打個盹,系統突然警示:「網路連線中斷」,車輛開始偏離路線,而前方竟是萬丈深谷。又或者家庭機器人被駭,開始暴走跳舞,甚至舉起刀具向你走來。

這會是黃仁勳期待的未來嗎?當然不是!也因為如此,「邊緣 AI」成為業界關注重點。不靠雲端,AI 就能在現場即時反應,不只更安全、低延遲,還能讓數據當場變現,不再淪為沉沒成本。

什麼是邊緣 AI ?

邊緣 AI,乍聽之下,好像是「孤單站在角落的人工智慧」,但事實上,它正是我們身邊最可靠、最即時的親密數位夥伴呀。

當前,像是企業、醫院、學校內部的伺服器,個人電腦,甚至手機等裝置,都可以成為「邊緣節點」。當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。簡單來說,就是將原本集中在遠端資料中心的運算能力,「搬家」到更靠近數據源頭的地方。

-----廣告,請繼續往下閱讀-----

那麼,為什麼需要這樣做?資料放在雲端,集中管理不是更方便嗎?對,就是不好。

當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。/ 圖片來源:MotionArray

第一個不好是物理限制:「延遲」。
即使光速已經非常快,數據從你家旁邊的路口傳到幾千公里外的雲端機房,再把分析結果傳回來,中間還要經過各種網路節點轉來轉去…這樣一來一回,就算只是幾十毫秒的延遲,對於需要「即刻反應」的 AI 應用,比如說工廠裡要精密控制的機械手臂、或者自駕車要判斷路況時,每一毫秒都攸關安全與精度,這點延遲都是無法接受的!這是物理距離與網路架構先天上的限制,無法繞過去。

第二個挑戰,是資訊科學跟工程上的考量:「頻寬」與「成本」。
你可以想像網路頻寬就像水管的粗細。隨著高解析影像與感測器數據不斷來回傳送,湧入的資料數據量就像超級大的水流,一下子就把水管塞爆!要避免流量爆炸,你就要一直擴充水管,也就是擴增頻寬,然而這樣的基礎建設成本是很驚人的。如果能在邊緣就先處理,把重要資訊「濃縮」過後再傳回雲端,是不是就能減輕頻寬負擔,也能節省大量費用呢?

第三個挑戰:系統「可靠性」與「韌性」。
如果所有運算都仰賴遠端的雲端時,一旦網路不穩、甚至斷線,那怎麼辦?很多關鍵應用,像是公共安全監控或是重要設備的預警系統,可不能這樣「看天吃飯」啊!邊緣處理讓系統更獨立,就算暫時斷線,本地的 AI 還是能繼續運作與即時反應,這在工程上是非常重要的考量。

所以你看,邊緣運算不是科學家們沒事找事做,它是順應數據特性和實際應用需求,一個非常合理的科學與工程上的最佳化選擇,是我們想要抓住即時數據價值,非走不可的一條路!

邊緣 AI 的實戰魅力:從工廠到倉儲,再到你的工作桌

知道要把 AI 算力搬到邊緣了,接下來的問題就是─邊緣 AI 究竟強在哪裡呢?它強就強在能夠做到「深度感知(Deep Perception)」!

-----廣告,請繼續往下閱讀-----

所謂深度感知,並非僅僅是對數據進行簡單的加加減減,而是透過如深度神經網路這類複雜的 AI 模型,從原始數據裡面,去「理解」出更高層次、更具意義的資訊。

研華科技為例,旗下已有多項邊緣 AI 的實戰應用。以工業瑕疵檢測為例,利用物件偵測模型,快速將工業產品中的瑕疵挑出來,而且由於 AI 模型可以使用同一套參數去檢測,因此品管上能達到一致性,減少人為疏漏。尤其在高產能工廠中,檢測速度必須快、狠、準。研華這套 AI 系統每分鐘最高可處理 8,000 件產品,替工廠節省大量人力,同時確保品質穩定。這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。

這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。/ 圖片提供:研華科技

此外,在智慧倉儲場域,研華與威剛合作,研華與威剛聯手合作,在 MIC-732AO 伺服器上搭載輝達的 Nova Orin 開發平台,打造倉儲系統的 AMR(Autonomous Mobile Robot) 自走車。這跟過去在倉儲系統中使用的自動導引車 AGV 技術不一樣,AMR 不需要事先規劃好路線,靠著感測器偵測,就能輕鬆避開障礙物,識別路線,並且將貨物載到指定地點存放。

當然,還有語言模型的應用。例如結合檢索增強生成 ( RAG ) 跟上下文學習 ( in-context learning ),除了可以做備忘錄跟排程規劃以外,還能將實務上碰到的問題記錄下來,等到之後碰到類似的問題時,就能詢問 AI 並得到解答。

你或許會問,那為什麼不直接使用 ChatGPT 就好了?其實,對許多企業來說,內部資料往往具有高度機密性與商業價值,有些場域甚至連手機都禁止員工帶入,自然無法將資料上傳雲端。對於重視資安,又希望運用 AI 提升效率的企業與工廠而言,自行部署大型語言模型(self-hosted LLM)才是理想選擇。而這樣的應用,並不需要龐大的設備。研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。

但問題也接著浮現:要在這麼小的設備上跑大型 AI 模型,會不會太吃資源?這正是目前 AI 領域最前沿、最火熱的研究方向之一:如何幫 AI 模型進行「科學瘦身」,又不減智慧。接下來,我們就來看看科學家是怎麼幫 AI 減重的。

-----廣告,請繼續往下閱讀-----

語言模型瘦身術之一:量化(Quantization)—用更精簡的數位方式來表示知識

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。這其實跟圖片壓縮有點像:有些畫面細節我們肉眼根本看不出來,刪掉也不影響整體感覺,卻能大幅減少檔案大小。

模型量化的原理也是如此,只不過對象是模型裡面的參數。這些參數原先通常都是以「浮點數」表示,什麼是浮點數?其實就是你我都熟知的小數。舉例來說,圓周率是個無窮不循環小數,唸下去就會是3.141592653…但實際運算時,我們常常用 3.14 或甚至直接用 3,也能得到夠用的結果。降低模型參數中浮點數的精度就是這個意思! 

然而,量化並不是那麼容易的事情。而且實際上,降低精度多少還是會影響到模型表現的。因此在設計時,工程師會精密調整,確保效能在可接受範圍內,達成「瘦身不減智」的目標。

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。/ 圖片來源:MotionArray

模型剪枝(Model Pruning)—基於重要性的結構精簡

建立一個 AI 模型,其實就是在搭建一整套類神經網路系統,並訓練類神經元中彼此關聯的參數。然而,在這麼多參數中,總會有一些參數明明佔了一個位置,卻對整體模型沒有貢獻。既然如此,不如果斷將這些「冗餘」移除。

這就像種植作物的時候,總會雜草叢生,但這些雜草並不是我們想要的作物,這時候我們就會動手清理雜草。在語言模型中也會有這樣的雜草存在,而動手去清理這些不需要的連結參數或神經元的技術,就稱為 AI 模型的模型剪枝(Model Pruning)。

-----廣告,請繼續往下閱讀-----

模型剪枝的效果,大概能把100變成70這樣的程度,說多也不是太多。雖然這樣的縮減對於提升效率已具幫助,但若我們要的是一個更小幾個數量級的模型,僅靠剪枝仍不足以應對。最後還是需要從源頭著手,採取更治本的方法:一開始就打造一個很小的模型,並讓它去學習大模型的知識。這項技術被稱為「知識蒸餾」,是目前 AI 模型壓縮領域中最具潛力的方法之一。

知識蒸餾(Knowledge Distillation)—讓小模型學習大師的「精髓」

想像一下,一位經驗豐富、見多識廣的老師傅,就是那個龐大而強悍的 AI 模型。現在,他要培養一位年輕學徒—小型 AI 模型。與其只是告訴小型模型正確答案,老師傅 (大模型) 會更直接傳授他做判斷時的「思考過程」跟「眉角」,例如「為什麼我會這樣想?」、「其他選項的可能性有多少?」。這樣一來,小小的學徒模型,用它有限的「腦容量」,也能學到老師傅的「智慧精髓」,表現就能大幅提升!這是一種很高級的訓練技巧,跟遷移學習有關。

舉個例子,當大型語言模型在收到「晚餐:鳳梨」這組輸入時,它下一個會接的詞語跟機率分別為「炒飯:50%,蝦球:30%,披薩:15%,汁:5%」。在知識蒸餾的過程中,它可以把這套機率表一起教給小語言模型,讓小語言模型不必透過自己訓練,也能輕鬆得到這個推理過程。如今,許多高效的小型語言模型正是透過這項技術訓練而成,讓我們得以在資源有限的邊緣設備上,也能部署愈來愈強大的小模型 AI。

但是!即使模型經過了這些科學方法的優化,變得比較「苗條」了,要真正在邊緣環境中處理如潮水般湧現的資料,並且高速、即時、穩定地運作,仍然需要一個夠強的「引擎」來驅動它們。也就是說,要把這些經過科學千錘百鍊、但依然需要大量計算的 AI 模型,真正放到邊緣的現場去發揮作用,就需要一個強大的「硬體平台」來承載。

-----廣告,請繼續往下閱讀-----

邊緣 AI 的強心臟:SKY-602E3 的三大關鍵

像研華的 SKY-602E3 塔式 GPU 伺服器,就是扮演「邊緣 AI 引擎」的關鍵角色!那麼,它到底厲害在哪?

一、核心算力
它最多可安裝 4 張雙寬度 GPU 顯示卡。為什麼 GPU 這麼重要?因為 GPU 的設計,天生就擅長做「平行計算」,這正好就是 AI 模型裡面那種海量數學運算最需要的!

你想想看,那麼多數據要同時處理,就像要請一大堆人同時算數學一樣,GPU 就是那個最有效率的工具人!而且,有多張 GPU,代表可以同時跑更多不同的 AI 任務,或者處理更大流量的數據。這是確保那些科學研究成果,在邊緣能真正「跑起來」、「跑得快」、而且「能同時做更多事」的物理基礎!

二、工程適應性——塔式設計。
邊緣環境通常不是那種恆溫恆濕的標準機房,有時是在工廠角落、辦公室一隅、或某個研究實驗室。這種塔式的機箱設計,體積相對緊湊,散熱空間也比較好(這對高功耗的 GPU 很重要!),部署起來比傳統機架式伺服器更有彈性。這就是把高性能計算,進行「工程化」,讓它能適應台灣多樣化的邊緣應用場景。

三、可靠性
SKY-602E3 用的是伺服器等級的主機板、ECC 糾錯記憶體、還有備援電源供應器等等。這些聽起來很硬的規格,背後代表的是嚴謹的工程可靠性設計。畢竟在邊緣現場,系統穩定壓倒一切!你總不希望 AI 分析跑到一半就掛掉吧?這些設計確保了部署在現場的 AI 系統,能夠長時間、穩定地運作,把實驗室裡的科學成果,可靠地轉化成實際的應用價值。

-----廣告,請繼續往下閱讀-----
研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。/ 圖片提供:研華科技

台灣製造 × 在地智慧:打造專屬的邊緣 AI 解決方案

研華科技攜手八維智能,能幫助企業或機構提供客製化的AI解決方案。他們的技術能力涵蓋了自然語言處理、電腦視覺、預測性大數據分析、全端軟體開發與部署,及AI軟硬體整合。

無論是大小型語言模型的微調、工業瑕疵檢測的模型訓練、大數據分析,還是其他 AI 相關的服務,都能交給研華與八維智能來協助完成。他們甚至提供 GPU 與伺服器的租借服務,讓企業在啟動 AI 專案前,大幅降低前期投入門檻,靈活又實用。

台灣有著獨特的產業結構,從精密製造、城市交通管理,到因應高齡化社會的智慧醫療與公共安全,都是邊緣 AI 的理想應用場域。更重要的是,這些情境中許多關鍵資訊都具有高度的「時效性」。像是產線上的一處異常、道路上的突發狀況、醫療設備的即刻警示,這些都需要分秒必爭的即時回應。

如果我們還需要將數據送上雲端分析、再等待回傳結果,往往已經錯失最佳反應時機。這也是為什麼邊緣 AI,不只是一項技術創新,更是一條把尖端 AI 科學落地、真正發揮產業生產力與社會價值的關鍵路徑。讓數據在生成的那一刻、在事件發生的現場,就能被有效的「理解」與「利用」,是將數據垃圾變成數據黃金的賢者之石!

👉 更多研華Edge AI解決方案
👉 立即申請Server租借

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

2
1

文字

分享

0
2
1
AI 能像人類一樣思考?諾貝爾物理學獎研究助力人工智慧模擬人類大腦
PanSci_96
・2024/11/14 ・2117字 ・閱讀時間約 4 分鐘

即使再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?畢竟電腦的電子元件和我們大腦中的神經細胞結構截然不同。再怎麼模仿,AI 終究無法以與生物相同的方式思考吧?

錯,可以。

2024 年諾貝爾物理學獎跌破所有專家的眼鏡,頒給了兩位研究機器學習的科學家——約翰·霍普菲爾德(John Hopfield)和傑佛瑞·辛頓(Geoffrey Hinton)。他們以「人工」的方法打造了類神經網路,最終模擬出生物的「智慧」,奠定了當代深度學習的基礎。

為什麼解決人工智慧發展瓶頸的,竟然會是物理學?物理要怎麼讓 AI 更像人類?

-----廣告,請繼續往下閱讀-----
歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

從巴甫洛夫的狗到赫布理論:理解學習的基礎

為了解答這個疑問,我們需要一些背景知識。

20 世紀初,俄羅斯心理學家巴甫洛夫發現,狗在食物還沒入口前,就會開始分泌唾液。他進行了一系列實驗,改變食物出現前的環境,比如讓狗習慣在聽到鈴聲後馬上得到食物。久而久之,狗只要聽到鈴聲,就會開始分泌唾液。

大約 50 年後,神經科學家赫布(Donald Hebb)提出了一個假說:大腦中相近的神經元,因為經常同時放電,會產生更強的連結。這種解釋稱為「赫布理論」,不僅奠定了神經心理學的發展,更成為現代深度學習的基礎。

然而,赫布理論雖然描述了鄰近神經元的關係,卻無法解釋大腦如何建構出如此複雜的聯想網路。

-----廣告,請繼續往下閱讀-----

霍普菲爾德網路:物理學家對神經網路的貢獻

然而,赫布理論雖能描述神經元之間的關係,卻缺乏數學模型。物理學家約翰·霍普菲爾德從數學家約翰·康威(John Conway)的「生命遊戲」(Game of Life)中獲得靈感,試圖建立一個可以在電腦上運行的記憶系統。

霍普菲爾德受「生命遊戲」啟發,嘗試建立電腦記憶系統。圖/envato

「生命遊戲」由數學家康威(John Conway)發明,玩家開始時有一個棋盤,每個格子代表一個細胞,細胞可以是「活」或「死」的狀態。根據特定規則,細胞會根據鄰居的狀態決定下一次的生存狀態。康威的目的是展示複雜的系統不一定需要複雜的規則。

霍普菲爾德發現,這個遊戲與赫布理論有強大的關聯性。大腦中的大量神經元,在出生時處於初始狀態,經過刺激後,神經元間的連結會產生或斷裂,形成強大的記憶系統。他希望利用這些理論,創造一個能在電腦上運行的記憶系統。

然而,他面臨一個難題:赫布理論沒有明確的數學模型來決定神經元連結的規則。而在電腦上運行,必須要有明確的數學規則。

-----廣告,請繼續往下閱讀-----

物理學的啟發:易辛模型

霍普菲爾德從物理學的研究中找到了類似的模型:易辛模型(Ising Model)。這個模型用於解釋鐵磁性物質的磁性特性。

在鐵磁性物質中,電子具有「自旋」,自旋產生磁矩。電子的自旋方向只有「向上」或「向下」,這就像生命遊戲中細胞的「生」或「死」。鄰近的電子會影響彼此的自旋方向,類似於細胞之間的互動。

易辛模型能用數學描述電子間的相互影響,並通過計算系統能量,得出自旋狀態的分佈。霍普菲爾德借用了這個概念,將神經元的互動視為電子自旋的互動。

他結合了康威生命遊戲的時間演化概念、易辛模型的能量計算,以及赫布理論的動態連結,創造了「霍普菲爾德網路」。這讓電腦能夠模擬生物大腦的學習過程。

-----廣告,請繼續往下閱讀-----

突破瓶頸:辛頓與波茲曼機

約翰·霍普菲爾德於1982年發明聯想神經網路,即「霍普菲爾網路」。圖/wikimedia

然而,霍普菲爾德網路並非完美。它容易陷入「局部最小值」的問題,無法找到系統的全局最優解。為了解決這個問題,加拿大計算機科學家傑佛瑞·辛頓(Geoffrey Hinton)提出了「波茲曼機」(Boltzmann Machine)。

辛頓將「模擬退火」的概念引入神經網路,允許系統以一定的機率跳出局部最小值,尋找全局最優解。他還引入了「隱藏層」的概念,將神經元分為「可見層」和「隱藏層」,提高了網路的學習能力。

受限波茲曼機(Restricted Boltzmann Machine)進一步簡化了模型,成為深度學習的基礎結構之一。這些創新使得 AI 能夠更有效地模擬人類的思維和學習過程。

AI 的未來:跨學科的融合

霍普菲爾德和辛頓的工作,將物理學的概念成功應用於人工智慧。他們的研究不僅解決了 AI 發展的瓶頸,還奠定了深度學習的基礎,對現代 AI 技術產生了深遠的影響。因此,2024 年諾貝爾物理學獎頒給他們,並非意外,而是對他們在跨學科領域的重大貢獻的肯定。

-----廣告,請繼續往下閱讀-----

AI 的發展,離不開物理學、生物學、數學等多學科的融合。霍普菲爾德和辛頓的工作,正是這種融合的典範。未來,隨著科學技術的進步,我們有理由相信,AI 將越來越接近人類的思維方式,甚至可能超越我們的想像。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

PanSci_96
1262 篇文章 ・ 2411 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

3
0

文字

分享

0
3
0
從太陽發光到生命突變,一切都歸功於量子穿隧效應?
PanSci_96
・2024/10/19 ・1962字 ・閱讀時間約 4 分鐘

-----廣告,請繼續往下閱讀-----

在這個充滿光與生命的宇宙中,我們的存在其實與一種看不見的力量密切相關,那就是量子力學。沒有量子力學,太陽將不會發光,地球上的生命將無法誕生,甚至整個宇宙的運行規則都會截然不同。這些微觀層次的奧秘深深影響了我們日常生活的方方面面。

其中,量子穿隧效應是一個看似違背直覺但至關重要的現象,從太陽的核融合反應到基因的突變,這種效應無處不在,甚至還牽動著當今的高科技產業。

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

什麼是量子穿隧效應?

我們可以將量子穿隧效應比作一個奇妙的穿牆術。想像一下,你身處一個被高牆包圍的城市,牆外是未知的世界。通常,如果你要越過這道牆,需要極大的力量來翻越它,或者用工具打破它。然而,在量子的世界裡,情況並不如此。

在微觀的量子力學世界中,粒子同時具有波的特性,這意味著它們並不完全受限於傳統物理的規則。當一個微觀粒子遇到能量障礙時,即使它沒有足夠的能量直接穿過障礙,卻仍有一定機率能出現在障礙的另一邊,這就是「量子穿隧效應」。粒子彷彿直接在牆上挖了一條隧道,然後穿越過去。

-----廣告,請繼續往下閱讀-----

這聽起來像魔法,但它背後有深刻的物理學道理。這個現象的發生取決於量子粒子的波動性質以及能量障礙的高度和寬度。如果障礙較矮且較窄,粒子穿隧的機率就較高;反之,障礙越高或越寬,穿隧的機率則會降低。

太陽發光:核融合與量子穿隧效應的結合

量子穿隧效應的存在,讓我們能夠理解恆星如何持續發光。以太陽為例,太陽內部的高溫環境為核融合反應提供了所需的能量。在這個過程中,氫原子核(質子)需要克服極大的電磁排斥力,才能彼此靠近,進而融合成為氦原子核。

然而,單靠溫度提供的能量並不足以讓所有質子進行核融合。根據科學家的計算,只有約10的 434 次方個質子中,才有一對具備足夠的能量進行核融合。這是一個極小的機率。如果沒有量子穿隧效應,這種反應幾乎不可能發生。

幸好,量子穿隧效應在這裡發揮了關鍵作用。由於量子粒子具有波動性,即便質子沒有足夠的能量直接跨越能量障礙,它們仍然能透過穿隧效應,以一定機率克服電磁排斥力,完成核融合反應。這就是為什麼太陽內部的核融合能夠源源不斷地發生,並且持續產生光與熱,讓地球成為適合生命生存的家園。

-----廣告,請繼續往下閱讀-----

量子穿隧效應與生命的演化

除了恆星的發光之外,量子穿隧效應還對生命的誕生和演化起到了關鍵作用。地球上物種的多樣性,很大一部分源於基因突變,而量子穿隧效應則幫助了這一過程。

DNA 分子是攜帶遺傳訊息的載體,但它的結構並不穩定,容易在外界因素影響下發生變異。然而,即使沒有外界因素的干擾,科學家發現 DNA 仍會自發性地發生「點突變」,這是一種單一核苷酸替換另一種核苷酸的突變形式。

量子穿隧效應讓氫原子隨時可能在 DNA 結構中進行位置轉換,從而導致鹼基對的錯位,這在 DNA 複製過程中,可能會引發突變。這些突變若保留下來,就會傳遞給下一代,最終豐富了基因與物種的多樣性。

量子穿隧幫助促進 DNA 突變,協助生命的演化與物種多樣性。圖/envato

半導體技術中的量子穿隧效應

除了在宇宙和生命中發揮作用,量子穿隧效應還影響著我們的日常生活,尤其在現代科技中。隨著半導體技術的發展,電子設備的體積不斷縮小,這也讓電子元件的性能面臨更大的挑戰。

-----廣告,請繼續往下閱讀-----

在微小的電子元件中,量子穿隧效應會導致電子穿過元件中的障礙,產生不必要的漏電流。這種現象對電晶體的性能帶來了負面影響,因此設計師們需要找到方法來減少穿隧效應的發生,以確保元件的穩定性。

雖然這是我們不希望見到的量子效應,但它再次證明了量子力學在我們生活中的深遠影響。設計更有效的半導體元件,必須考慮到量子穿隧效應,這讓科學家與工程師們需要不斷創新。

量子力學是我們宇宙的隱藏力量

量子穿隧效應看似深奧難懂,但它對宇宙的運作和生命的誕生至關重要。從太陽的核融合反應到基因突變,甚至現代科技中的半導體設計,量子力學影響著我們生活的方方面面。

在這個充滿未知的微觀世界裡,量子現象帶來的影響是我們難以想像的。正是這些看似不可思議的現象,塑造了我們的宇宙,讓生命得以誕生,科技得以發展。當我們仰望星空時,別忘了,那閃耀的光芒,背後藏著的是量子力學的奇妙力量。

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----

討論功能關閉中。

PanSci_96
1262 篇文章 ・ 2411 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。