Loading [MathJax]/extensions/tex2jax.js

0

0
0

文字

分享

0
0
0

LHC進行重離子對撞實驗

科景_96
・2011/02/10 ・394字 ・閱讀時間少於 1 分鐘 ・SR值 570 ・九年級

[Original publish date:Nov 11, 2010]

編輯 John C. H. Chen 報導

歐洲的大強子對撞機(Large Hadron Collider, LHC)於11月8日開始進行鉛離子對撞實驗。實驗的主要目標是研究夸克膠子電漿(quark gluon plasma, QGP)。

LHC主要的實驗是進行質子對碰撞,希望能夠找到Higgs粒子及其他的新物理。但是LHC還有另外一個實驗項目,就是以鉛離子進行對撞,用來產生夸克膠子電漿。

-----廣告,請繼續往下閱讀-----

當LHC將鉛離子對以每核子對2.76TeV進行碰撞的時候,碰撞所產生的高能量密度將使鉛離子內的質子與中子”融化”,使得質子及中子內的夸克能夠自由移動,而形成夸克膠子電漿。

LHC的四大實驗中,ALICE實驗是設計來專門研究夸克膠子電漿的偵測器。而ATLAS及CMS實驗也將同時進行量測。

全世界首次成功產生夸克膠子電漿的加速器為美國布魯克海文國家實驗室的相對論性重離子對撞機(RHIC)。目前LHC重離子對撞實驗的能量將是RHIC的13倍,將可以產生溫度更高的夸克膠子電漿。

參考來源:

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度
科景_96
426 篇文章 ・ 7 位粉絲
Sciscape成立於1999年4月,為一非營利的專業科學新聞網站。

0

1
0

文字

分享

0
1
0
拆解邊緣AI熱潮:伺服器如何提供穩固的運算基石?
鳥苷三磷酸 (PanSci Promo)_96
・2025/05/21 ・5071字 ・閱讀時間約 10 分鐘

本文與 研華科技 合作,泛科學企劃執行。

每次 NVIDIA 執行長黃仁勳公開發言,總能牽動整個 AI 產業的神經。然而,我們不妨設想一個更深層的問題——如今的 AI 幾乎都倚賴網路連線,那如果哪天「網路斷了」,會發生什麼事?

想像你正在自駕車打個盹,系統突然警示:「網路連線中斷」,車輛開始偏離路線,而前方竟是萬丈深谷。又或者家庭機器人被駭,開始暴走跳舞,甚至舉起刀具向你走來。

這會是黃仁勳期待的未來嗎?當然不是!也因為如此,「邊緣 AI」成為業界關注重點。不靠雲端,AI 就能在現場即時反應,不只更安全、低延遲,還能讓數據當場變現,不再淪為沉沒成本。

什麼是邊緣 AI ?

邊緣 AI,乍聽之下,好像是「孤單站在角落的人工智慧」,但事實上,它正是我們身邊最可靠、最即時的親密數位夥伴呀。

當前,像是企業、醫院、學校內部的伺服器,個人電腦,甚至手機等裝置,都可以成為「邊緣節點」。當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。簡單來說,就是將原本集中在遠端資料中心的運算能力,「搬家」到更靠近數據源頭的地方。

-----廣告,請繼續往下閱讀-----

那麼,為什麼需要這樣做?資料放在雲端,集中管理不是更方便嗎?對,就是不好。

當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。/ 圖片來源:MotionArray

第一個不好是物理限制:「延遲」。
即使光速已經非常快,數據從你家旁邊的路口傳到幾千公里外的雲端機房,再把分析結果傳回來,中間還要經過各種網路節點轉來轉去…這樣一來一回,就算只是幾十毫秒的延遲,對於需要「即刻反應」的 AI 應用,比如說工廠裡要精密控制的機械手臂、或者自駕車要判斷路況時,每一毫秒都攸關安全與精度,這點延遲都是無法接受的!這是物理距離與網路架構先天上的限制,無法繞過去。

第二個挑戰,是資訊科學跟工程上的考量:「頻寬」與「成本」。
你可以想像網路頻寬就像水管的粗細。隨著高解析影像與感測器數據不斷來回傳送,湧入的資料數據量就像超級大的水流,一下子就把水管塞爆!要避免流量爆炸,你就要一直擴充水管,也就是擴增頻寬,然而這樣的基礎建設成本是很驚人的。如果能在邊緣就先處理,把重要資訊「濃縮」過後再傳回雲端,是不是就能減輕頻寬負擔,也能節省大量費用呢?

第三個挑戰:系統「可靠性」與「韌性」。
如果所有運算都仰賴遠端的雲端時,一旦網路不穩、甚至斷線,那怎麼辦?很多關鍵應用,像是公共安全監控或是重要設備的預警系統,可不能這樣「看天吃飯」啊!邊緣處理讓系統更獨立,就算暫時斷線,本地的 AI 還是能繼續運作與即時反應,這在工程上是非常重要的考量。

所以你看,邊緣運算不是科學家們沒事找事做,它是順應數據特性和實際應用需求,一個非常合理的科學與工程上的最佳化選擇,是我們想要抓住即時數據價值,非走不可的一條路!

邊緣 AI 的實戰魅力:從工廠到倉儲,再到你的工作桌

知道要把 AI 算力搬到邊緣了,接下來的問題就是─邊緣 AI 究竟強在哪裡呢?它強就強在能夠做到「深度感知(Deep Perception)」!

-----廣告,請繼續往下閱讀-----

所謂深度感知,並非僅僅是對數據進行簡單的加加減減,而是透過如深度神經網路這類複雜的 AI 模型,從原始數據裡面,去「理解」出更高層次、更具意義的資訊。

研華科技為例,旗下已有多項邊緣 AI 的實戰應用。以工業瑕疵檢測為例,利用物件偵測模型,快速將工業產品中的瑕疵挑出來,而且由於 AI 模型可以使用同一套參數去檢測,因此品管上能達到一致性,減少人為疏漏。尤其在高產能工廠中,檢測速度必須快、狠、準。研華這套 AI 系統每分鐘最高可處理 8,000 件產品,替工廠節省大量人力,同時確保品質穩定。這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。

這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。/ 圖片提供:研華科技

此外,在智慧倉儲場域,研華與威剛合作,研華與威剛聯手合作,在 MIC-732AO 伺服器上搭載輝達的 Nova Orin 開發平台,打造倉儲系統的 AMR(Autonomous Mobile Robot) 自走車。這跟過去在倉儲系統中使用的自動導引車 AGV 技術不一樣,AMR 不需要事先規劃好路線,靠著感測器偵測,就能輕鬆避開障礙物,識別路線,並且將貨物載到指定地點存放。

當然,還有語言模型的應用。例如結合檢索增強生成 ( RAG ) 跟上下文學習 ( in-context learning ),除了可以做備忘錄跟排程規劃以外,還能將實務上碰到的問題記錄下來,等到之後碰到類似的問題時,就能詢問 AI 並得到解答。

你或許會問,那為什麼不直接使用 ChatGPT 就好了?其實,對許多企業來說,內部資料往往具有高度機密性與商業價值,有些場域甚至連手機都禁止員工帶入,自然無法將資料上傳雲端。對於重視資安,又希望運用 AI 提升效率的企業與工廠而言,自行部署大型語言模型(self-hosted LLM)才是理想選擇。而這樣的應用,並不需要龐大的設備。研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。

但問題也接著浮現:要在這麼小的設備上跑大型 AI 模型,會不會太吃資源?這正是目前 AI 領域最前沿、最火熱的研究方向之一:如何幫 AI 模型進行「科學瘦身」,又不減智慧。接下來,我們就來看看科學家是怎麼幫 AI 減重的。

-----廣告,請繼續往下閱讀-----

語言模型瘦身術之一:量化(Quantization)—用更精簡的數位方式來表示知識

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。這其實跟圖片壓縮有點像:有些畫面細節我們肉眼根本看不出來,刪掉也不影響整體感覺,卻能大幅減少檔案大小。

模型量化的原理也是如此,只不過對象是模型裡面的參數。這些參數原先通常都是以「浮點數」表示,什麼是浮點數?其實就是你我都熟知的小數。舉例來說,圓周率是個無窮不循環小數,唸下去就會是3.141592653…但實際運算時,我們常常用 3.14 或甚至直接用 3,也能得到夠用的結果。降低模型參數中浮點數的精度就是這個意思! 

然而,量化並不是那麼容易的事情。而且實際上,降低精度多少還是會影響到模型表現的。因此在設計時,工程師會精密調整,確保效能在可接受範圍內,達成「瘦身不減智」的目標。

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。/ 圖片來源:MotionArray

模型剪枝(Model Pruning)—基於重要性的結構精簡

建立一個 AI 模型,其實就是在搭建一整套類神經網路系統,並訓練類神經元中彼此關聯的參數。然而,在這麼多參數中,總會有一些參數明明佔了一個位置,卻對整體模型沒有貢獻。既然如此,不如果斷將這些「冗餘」移除。

這就像種植作物的時候,總會雜草叢生,但這些雜草並不是我們想要的作物,這時候我們就會動手清理雜草。在語言模型中也會有這樣的雜草存在,而動手去清理這些不需要的連結參數或神經元的技術,就稱為 AI 模型的模型剪枝(Model Pruning)。

-----廣告,請繼續往下閱讀-----

模型剪枝的效果,大概能把100變成70這樣的程度,說多也不是太多。雖然這樣的縮減對於提升效率已具幫助,但若我們要的是一個更小幾個數量級的模型,僅靠剪枝仍不足以應對。最後還是需要從源頭著手,採取更治本的方法:一開始就打造一個很小的模型,並讓它去學習大模型的知識。這項技術被稱為「知識蒸餾」,是目前 AI 模型壓縮領域中最具潛力的方法之一。

知識蒸餾(Knowledge Distillation)—讓小模型學習大師的「精髓」

想像一下,一位經驗豐富、見多識廣的老師傅,就是那個龐大而強悍的 AI 模型。現在,他要培養一位年輕學徒—小型 AI 模型。與其只是告訴小型模型正確答案,老師傅 (大模型) 會更直接傳授他做判斷時的「思考過程」跟「眉角」,例如「為什麼我會這樣想?」、「其他選項的可能性有多少?」。這樣一來,小小的學徒模型,用它有限的「腦容量」,也能學到老師傅的「智慧精髓」,表現就能大幅提升!這是一種很高級的訓練技巧,跟遷移學習有關。

舉個例子,當大型語言模型在收到「晚餐:鳳梨」這組輸入時,它下一個會接的詞語跟機率分別為「炒飯:50%,蝦球:30%,披薩:15%,汁:5%」。在知識蒸餾的過程中,它可以把這套機率表一起教給小語言模型,讓小語言模型不必透過自己訓練,也能輕鬆得到這個推理過程。如今,許多高效的小型語言模型正是透過這項技術訓練而成,讓我們得以在資源有限的邊緣設備上,也能部署愈來愈強大的小模型 AI。

但是!即使模型經過了這些科學方法的優化,變得比較「苗條」了,要真正在邊緣環境中處理如潮水般湧現的資料,並且高速、即時、穩定地運作,仍然需要一個夠強的「引擎」來驅動它們。也就是說,要把這些經過科學千錘百鍊、但依然需要大量計算的 AI 模型,真正放到邊緣的現場去發揮作用,就需要一個強大的「硬體平台」來承載。

-----廣告,請繼續往下閱讀-----

邊緣 AI 的強心臟:SKY-602E3 的三大關鍵

像研華的 SKY-602E3 塔式 GPU 伺服器,就是扮演「邊緣 AI 引擎」的關鍵角色!那麼,它到底厲害在哪?

一、核心算力
它最多可安裝 4 張雙寬度 GPU 顯示卡。為什麼 GPU 這麼重要?因為 GPU 的設計,天生就擅長做「平行計算」,這正好就是 AI 模型裡面那種海量數學運算最需要的!

你想想看,那麼多數據要同時處理,就像要請一大堆人同時算數學一樣,GPU 就是那個最有效率的工具人!而且,有多張 GPU,代表可以同時跑更多不同的 AI 任務,或者處理更大流量的數據。這是確保那些科學研究成果,在邊緣能真正「跑起來」、「跑得快」、而且「能同時做更多事」的物理基礎!

二、工程適應性——塔式設計。
邊緣環境通常不是那種恆溫恆濕的標準機房,有時是在工廠角落、辦公室一隅、或某個研究實驗室。這種塔式的機箱設計,體積相對緊湊,散熱空間也比較好(這對高功耗的 GPU 很重要!),部署起來比傳統機架式伺服器更有彈性。這就是把高性能計算,進行「工程化」,讓它能適應台灣多樣化的邊緣應用場景。

三、可靠性
SKY-602E3 用的是伺服器等級的主機板、ECC 糾錯記憶體、還有備援電源供應器等等。這些聽起來很硬的規格,背後代表的是嚴謹的工程可靠性設計。畢竟在邊緣現場,系統穩定壓倒一切!你總不希望 AI 分析跑到一半就掛掉吧?這些設計確保了部署在現場的 AI 系統,能夠長時間、穩定地運作,把實驗室裡的科學成果,可靠地轉化成實際的應用價值。

-----廣告,請繼續往下閱讀-----
研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。/ 圖片提供:研華科技

台灣製造 × 在地智慧:打造專屬的邊緣 AI 解決方案

研華科技攜手八維智能,能幫助企業或機構提供客製化的AI解決方案。他們的技術能力涵蓋了自然語言處理、電腦視覺、預測性大數據分析、全端軟體開發與部署,及AI軟硬體整合。

無論是大小型語言模型的微調、工業瑕疵檢測的模型訓練、大數據分析,還是其他 AI 相關的服務,都能交給研華與八維智能來協助完成。他們甚至提供 GPU 與伺服器的租借服務,讓企業在啟動 AI 專案前,大幅降低前期投入門檻,靈活又實用。

台灣有著獨特的產業結構,從精密製造、城市交通管理,到因應高齡化社會的智慧醫療與公共安全,都是邊緣 AI 的理想應用場域。更重要的是,這些情境中許多關鍵資訊都具有高度的「時效性」。像是產線上的一處異常、道路上的突發狀況、醫療設備的即刻警示,這些都需要分秒必爭的即時回應。

如果我們還需要將數據送上雲端分析、再等待回傳結果,往往已經錯失最佳反應時機。這也是為什麼邊緣 AI,不只是一項技術創新,更是一條把尖端 AI 科學落地、真正發揮產業生產力與社會價值的關鍵路徑。讓數據在生成的那一刻、在事件發生的現場,就能被有效的「理解」與「利用」,是將數據垃圾變成數據黃金的賢者之石!

👉 更多研華Edge AI解決方案
👉 立即申請Server租借

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

4
1

文字

分享

0
4
1
微擾理論:我們有沒有可能遮蔽了新的物理?——《撞出上帝的粒子》
貓頭鷹出版社_96
・2023/01/27 ・2632字 ・閱讀時間約 5 分鐘

-----廣告,請繼續往下閱讀-----

對撞機能夠給出什麼答案?

物理學家想用大型強子對撞機來解答的重要問題,可以總結如下:在大型強子對撞機的能量級下,粒子物理的標準模型是否有效?「對撞機能量級」是個大大的躍進,因為其能量大小超越了電弱對稱破缺尺度;在這個尺度之上,兩種基本作用力相互統一,而 W 和 Z 玻色子、甚至所有其他基本粒子的質量,也許都是起源於此。

從空中鳥瞰大型強子對撞機的地理環境。圖/wikipedia

如果標準模型可以成功描述新能量範疇的現象,希格斯粒子應該就會存在,但看來不會有什麼其他的新發現;反之,如果標準模型失效,也許就沒有希格斯粒子了,不過背後一定會藏著稀奇古怪的事物。其實有個不易察覺的問題會左右這件事:我們究竟有多了解標準模型在此能量級下預測的現象?這並不容易回答。

一般而言我們並沒有能耐百分之百準確地解出標準模型。所有人都是用近似法。而絕大多數的近似方法之所以可行,是因為基本作用力的「耦合」,也就是強度,沒有很大。「耦合」就是在物理過程對應的費曼圖中,每個作用頂點帶有的值。(參見【科學解釋 8】)

微擾理論的應用

作用力的強度可以用一個數值來表示。如果說這個數值是 0.1,那麼兩個粒子交互作用的機率就會和 0.1 乘上 0.1,也就是 0.01 成正比。要是有三個粒子,機率就變成 0.1 的三次方,0.001,四個粒子的話就是 0.0001,如此這般。由此可知,如果耦合值很小,你就可以忽略比方說四個粒子以上的粒子交互作用―超過這個臨界值的項對於主要結果都只是極小的微擾罷了,因為前面至少會乘上 0.1 的五次方,也就是 0.00001。

-----廣告,請繼續往下閱讀-----

可見更多粒子的反應項只會些微改變原本的結果而已。這就是「微擾理論」的例子,微擾理論廣泛運用於解決物理界和化學界中許多的問題。只要耦合值很小、也就是作用力很弱,這個理論就十分準確。

然而,這種近似法並不是永遠有效。微擾理論失效的地方大多涉及強核力、也就是量子色動力學。這就是為何大家要把這種作用力稱為強核力。我們不是故意要混淆視聽的,強核力的確和它的名字一樣難以應付。

舉例來說,在我們對撞質子,想一探其內部夸克及膠子的種類分布時,某些方面的資訊其實無法從先前所提的原則計算得到(參見 4.5 節)。除此之外,我們也無法算出夸克和膠子最後是如何結合成新的強子的。雖然大家手上有量子色動力學的限制條件,也有一些基本的能量守恆、及動量守恆定律,以及不少從其他地方得到的數據,卻無法用微擾理論。

由二個上夸克及一個下夸克所構成的質子。圖/wikipedia

原因在於強核力的耦合值非常接近一,不論幾次方都還是一。因此,不管你計算的對象是幾個粒子,得到的結果都不會收斂到某個可信的值。最終我們只好依據自己的經驗來猜測結果、或建立模型。而這樣的結論一直都有調整空間。

-----廣告,請繼續往下閱讀-----

因此我們要嚴肅看待一個問題:大家在調整模型的時候,實際上可能會遮蔽了令人興奮的新物理。要避免這個問題,你得拿自己熟悉、以微擾理論計算的結果,連結上自己還不太明白、有調整空間的模型。我想像出一個比較毛骨悚然的情景來譬喻這件事――一具以精準預測架構的骨架,嵌在以最佳猜想組成的濕軟肉體內。

肉體的形狀可以改變。你可以重搥它的肚子,或捏它的臉頰(相對來說比較不痛);但是它有兩隻手兩隻腳,如果你打斷了某根骨頭,自己一定會知道。

用既有的知識探索未知

無論如何,大家利用電腦程式來把可塑的模型、與不易動搖的微擾理論整合在一起,而且絕大部分的工作都已經完成了;這種程式就是蒙地卡羅事件產生器(Monte Carlo event generator)。程式不但能編譯大部分我們擁有的粒子對撞現象的相關知識,同時也是個珍貴的工具,能協助物理學家設計新的實驗,並釐清既有的實驗對不同模擬數據會如何反應與解讀。「蒙地卡羅」這個名字有其典故,因為就和俄羅斯輪盤賭注一樣,這種事件產生器用上了很多隨機的數字。

這一切其實都牽涉到一點有趣的科學社會學。身為一位理論學家,有時你會因為投入某類蒙地卡羅事件產生器相關的研究而吃虧。你的一篇論文可能已經被引用了數千次,大家還是會說:「不過是電腦軟體罷了。」或是「這只是蒙地卡羅那類的玩意兒。」反之,要是你是發表一篇弦論的論文,又被引用這麼多次的話,你就能像個巨人般橫行全世界了。但說到底,弦論努力想預測的現象距離實證還是很遙遠,蒙地卡羅事件產生器卻可以實際解釋數據。

-----廣告,請繼續往下閱讀-----

蒙地卡羅事件產生器雖然不是唯一的辦法,大致上仍是物理學家在理解標準模型的意義、與儘量試著利用模型精確預測現象時,所付出的一份心血。

粒子物理標準模型。圖/wikipedia

雖然和大型強子對撞機的學界相比,蒙地卡羅事件產生器的研究社群規模較小,但相對來說,這個領域的成員盡的心力甚至不會比大家建造對撞機的付出還要少。美國物理學會也許是考量到了這一點,將 2011 年的櫻井獎(J.J. Sakurai Prize)頒給在這個領域工作的三位理論學家,分別是韋伯(Bryan Webber)、阿塔瑞利(Guido Altarelli)、斯舍斯特蘭(Torbjörn Sjöstrand)。頒獎典禮的引言如下:

因為三位物理學家的洞見,我們得以縝密驗證粒子物理的標準模型,實現高能物理實驗的目標、並從中學習量子色動力學、電弱交互作用、與可能的新物理的確切知識。

我很開心他們獲獎,因為其中兩位是我很親近的朋友,也更是因為三人所寫的計算方法及程式對大型強子對撞機幾乎所有的研究都十分重要,像是確保大家不會在不知情的情況下遮蔽任何新的物理。當前,我們正在嘗試確認希格斯粒子搜尋實驗的不定變數大小,並縮減其數量;人人都在尋找關鍵的三標準差證據、甚至是五標準差的大發現。為了這個目標,許多人夜以繼日持續比對新的數據和蒙地卡羅事件產生器的結果。

——本文摘自《撞出上帝的粒子:深入史上最大實驗現場》,2022 年 12 月,貓頭鷹出版,未經同意請勿轉載。

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
貓頭鷹出版社_96
65 篇文章 ・ 26 位粉絲
貓頭鷹自 1992 年創立,初期以單卷式主題工具書為出版重心,逐步成為各類知識的展演舞台,尤其著力於科學科技、歷史人文與整理台灣物種等非虛構主題。以下分四項簡介:一、引介國際知名經典作品如西蒙.德.波娃《第二性》(法文譯家邱瑞鑾全文翻譯)、達爾文傳世經典《物種源始》、國際科技趨勢大師KK凱文.凱利《科技想要什麼》《必然》與《釋控》、法國史學大師巴森《從黎明到衰頹》、瑞典漢學家林西莉《漢字的故事》等。二、開發優秀中文創作品如腦科學家謝伯讓《大腦簡史》、羅一鈞《心之谷》、張隆志組織新生代未來史家撰寫《跨越世紀的信號》大系、婦運先驅顧燕翎《女性主義經典選讀》、翁佳音暨曹銘宗合著《吃的台灣史》等。三、也售出版權及翻譯稿至全世界。四、同時長期投入資源整理台灣物種,並以圖鑑形式陸續出版,如《台灣原生植物全圖鑑》計八卷九巨冊、《台灣蛇類圖鑑》、《台灣行道樹圖鑑》等,叫好又叫座。冀望讀者在愉悅中閱讀並感受知識的美好是貓頭鷹永續經營的宗旨。

0

9
0

文字

分享

0
9
0
一樣都是「work」,物理的「work」定義好像比較簡單?——《撞出上帝的粒子》
貓頭鷹出版社_96
・2023/01/25 ・2489字 ・閱讀時間約 5 分鐘

功與工作

有些大家慣用的字彙常常會被專業學科借用,專家賦予這些字新的定義,比平常的意思更具體、也更有技術性。物理學有個例子是「功」(work)。如果向一個粒子施加定力,並推動一段距離,你所做的功就定義為施力(沿著粒子運動方向的分量)乘上粒子移動的距離。

這是個很具體的物理量,實際上也是能量的一種形式。做多少功,物體的能量就會增加多少。顯而易見的,這個定義和日常生活中我們對工作(work)的理解有點相關:世人為了完成一些目標(大多是想獲取金錢報酬),而費心費力工作。

世人為了完成一些目標(大多是想獲取金錢報酬),而費心費力工作。圖/pixabay

不過,物理所講的功有明確的意義,使用的範圍也很清楚;相較之下,平常大家說的工作的意思就有些模糊,泛指很多事情。

動力與動量

動量(momentum)這個字看來不太一樣。物理學的動量是 γmv(相對論的珈瑪符號乘上物體靜止質量、再和物體速度相乘),是一種量化方式,用來描述粒子以已知速率往某個固定方向持續前進的傾向。若粒子的速率遠比光速小,γ會非常接近一, 所以能省略掉。

-----廣告,請繼續往下閱讀-----

而更廣義的動力(momentum)用來指稱政治運動,或其他社會變動及政策背後的推力。同樣的,一件事的動力愈大,也暗示它愈難停下。不過,這些領域都沒有明確定義何謂「動力」。

物理學中的「場」

到目前為止,我試著不要太常用一些字,但在之後的章節這些字會很常出現。其中一個就是「場」(-eld)。通常場是一片平坦土地的代稱,上頭種了些植物,可能有農夫在照顧,也許還會有幾頭乳牛。

此外這個字也可以代表特定的研究領域或專業,往前翻你就會知道我已經用過這個意思了。這兩個意思其實也可以合併使用,像在解釋稻草人為什麼可以獲得終生教職的時候,就會用到。

物理學的「場」有個更技術性,但還是和前面意義相關的定義。物理學家說的場是個物理量,在空間中某個區域的每個點上都有特定的對應值。如果你待在一個房間內,就可以用各式各樣的場來描述這個環境。身為一位物理學家,你或許會這麼做:

-----廣告,請繼續往下閱讀-----

首先你要想出一個方式來明確指出房間中的每一個點。有個好辦法是先選定房間地面的某個角落為「原點」。

首先你要想出一個方式來明確指出房間中的每一個點。有個好辦法是先選定房間地面的某個角落為「原點」。圖/pixabay

然後選取交於原點的其中一個牆面,沿著地面平行於這面牆的方向走過一段距離(稱為x);接著再順著平行另一面牆的方向走一段(稱為y),你就能碰到地上所有的點。進一步的,只要往上走段距離(叫作z),就可以抵達房間內所有的點了。你需要的只有三個數字:x、y、z。

幾種有用的場

現在可以來談談幾種有用的場了。舉例來說,溫度就是一種場,房間裡的每一點都有一個溫度值。假設平均來看,我們說房內的溫度是攝氏二十一度;如果房間中每一處的溫度都和平均值一樣,那麼你得到的就是一個常量場(constant field):場的值和點的位置無關,也就是和x、y、z沒有關係。

溫度就是一種場。圖/pixabay

然而,天花板附近的溫度很有可能比地面的高出一點,因為熱空氣的密度比冷空氣小,會升向天花板。我們可以用某個場來描述溫度與高度的關係,好比T(z),換句話說,溫度T只和高度z有關。

-----廣告,請繼續往下閱讀-----

T是z的函數(function。另一個生活常用字「功能」,這次是被數學家借去用了),可能像T(z) =20.5 + 0.5z,這裡的z以公尺為單位、而T以攝氏溫標(℃)為單位,舉例來說。在兩公尺高的房間內,地面的溫度是 20.5 + 0.5×0 = 20.5℃,而天花板的溫度則是 20.5 + 0.5×2 =21.5℃。

至於天花板和地板之間其他每一點的溫度,都可以用這個溫度場的函數計算出來。其他的場可以用來描述不同的事情,好比空氣密度,或甚至是噪音量。

以上所談的場在每個點都只由一個數字代表。這些場有大小,卻沒有方向。因此我們稱它為「純量場」(scalar -eld)。「純量」(scalar)代表只有大小、卻沒有方向的東西。

某些種類的場則擁有方向,我們叫這種場為「向量場」(vector field)。我之前有提到一些向量場的例子,像是大型強子對撞機的磁鐵製造的電場與磁場。這個房間也有重力場這個向量場。重力場在房內的每一點都有個值(力的大小大約是每公斤九.八牛頓),以及方向(指向地面)。

-----廣告,請繼續往下閱讀-----

實際上,電場和磁場都是量子場,重力場可能也是,但科學家還不清楚相關理論。在日常用途中這件事常被忽略掉,但如果你在極小的尺度下觀察這些場,就會發現它其實不是個數值連續體,而是底層的量子場中一連串離散(discrete,意思是不連續,如階梯般一級一級,而不是如漸層色彩一樣柔和變化)的量子、或激發(excitation)的總和(疊加)。

discrete,意思是不連續,如階梯般一級一級,而不是如漸層色彩一樣柔和變化。圖/pixabay

這些激發有點像是波又有點像粒子。電磁學的量子理論―量子電動力學擁有兩個場,分別是光子場以及電子場。我們量測到的電磁波,或是獨立的光子及電子,都是這兩個場的激發。這裡我們又看到一個科學家借用日常名詞的例子。很明顯「激發」和平常我們的用法緊密相關,因為量子場論是個扣人心弦(exciting)的理論。

無論是不是量子理論,場的概念都是一樣的。場是個物理量,在你感興趣的空間範圍內的每一點,都擁有對應的值,可能是單純的數值或是很多個量子的總和。

——本文摘自《撞出上帝的粒子:深入史上最大實驗現場》,2022 年 12 月,貓頭鷹出版,未經同意請勿轉載。

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
貓頭鷹出版社_96
65 篇文章 ・ 26 位粉絲
貓頭鷹自 1992 年創立,初期以單卷式主題工具書為出版重心,逐步成為各類知識的展演舞台,尤其著力於科學科技、歷史人文與整理台灣物種等非虛構主題。以下分四項簡介:一、引介國際知名經典作品如西蒙.德.波娃《第二性》(法文譯家邱瑞鑾全文翻譯)、達爾文傳世經典《物種源始》、國際科技趨勢大師KK凱文.凱利《科技想要什麼》《必然》與《釋控》、法國史學大師巴森《從黎明到衰頹》、瑞典漢學家林西莉《漢字的故事》等。二、開發優秀中文創作品如腦科學家謝伯讓《大腦簡史》、羅一鈞《心之谷》、張隆志組織新生代未來史家撰寫《跨越世紀的信號》大系、婦運先驅顧燕翎《女性主義經典選讀》、翁佳音暨曹銘宗合著《吃的台灣史》等。三、也售出版權及翻譯稿至全世界。四、同時長期投入資源整理台灣物種,並以圖鑑形式陸續出版,如《台灣原生植物全圖鑑》計八卷九巨冊、《台灣蛇類圖鑑》、《台灣行道樹圖鑑》等,叫好又叫座。冀望讀者在愉悅中閱讀並感受知識的美好是貓頭鷹永續經營的宗旨。