Loading [MathJax]/extensions/tex2jax.js

0

3
0

文字

分享

0
3
0

機率可以協助我們選擇,如果用來賭博會贏錢嗎?——《數學就是這樣用:找出生活問題的最佳解》

天下文化_96
・2022/12/04 ・3213字 ・閱讀時間約 6 分鐘

每天都要風險評估

我們的現代生活是由一連串決定所組成,要根據各種可能的結果進行評估。我們的每一天都必須經過風險分析才能順利度過。

今天的降雨機率是 28%,我要不要帶雨傘?

報紙上說,吃培根會讓罹患腸癌的機率增加 20%,那我該戒掉培根三明治嗎?

考慮到發生事故的風險,我的汽車保險費會不會太高?

我買樂透彩券有什麼用呢?

玩桌遊的時候,我接下來擲出的點數讓我排名下降的機會有多少?

許多職業都要算出機會才能做關鍵決定。某支股票上漲或下跌的機會有多大?

如果有DNA證據,被告就有罪嗎?

病人要不要擔心偽陽性的篩檢結果?

足球選手在罰球時應該踢向哪裡?

我們的每一天都必須經過風險分析才能順利度過。圖/pexels

越過不確定的世界是一項充滿挑戰的任務,但找出一條穿過迷霧的路並非不可能。數學已經發展出強大的捷徑,幫助我們處理從遊戲到健康、從賭博到理財投資的一切不確定性,那就是「機率的數學」。

擲骰子是通往機率的捷徑

若想探索這條捷徑的本領,擲骰子是最佳方法之一。

本章開頭的題目,曾讓十七世紀的著名日記作者皮普斯(Samuel Pepys)坐立不安。

-----廣告,請繼續往下閱讀-----

皮普斯著迷於機率遊戲,但他不會隨便拿辛苦賺來的錢當作擲骰子的賭注,他總是很謹慎。皮普斯在 1668 年 1 月 1 日的日記寫道,正要從劇院回家時撞見「骯髒的學徒和無所事事之人在賭博」,回想起孩提時僕人帶他去看人試圖擲骰子贏錢的情景。

皮普斯著迷於機率遊戲,但拿錢當作擲骰子的賭注,他總是很謹慎。圖/wikipedia

皮普斯記下自己看到「一個人向另一個人拿走所輸的錢,反應大不相同,有一人不停罵髒話,另一人只是喃喃自語和發牢騷,還有一人絲毫沒有明顯的不滿」。

他的朋友布里斯班德(Brisband)先生提議,給他十枚硬幣試試運氣,還說「大家都知道從來沒有人第一次玩會輸,因為魔鬼太狡猾了,不會勸阻賭徒」。但皮普斯拒絕了,躲回他的房間。

皮普斯小時候看到賭博時,還沒有什麼捷徑能讓他比別人有優勢。但在他從青少年到成年的歲月裡,一切已經有了改變,因為海峽對岸有兩位數學家,費馬和巴斯卡,提出一種新的思考方式,透過這條深具潛力的捷徑,應該能讓賭徒賺錢,不然至少是少輸些錢。

-----廣告,請繼續往下閱讀-----

皮普斯可能還未聽說費馬和巴斯卡已取得重大進展,把魔鬼手中的骰子努力搶到數學家手上。如今,從拉斯維加斯到澳門,費馬和巴斯卡開創的機率數學讓世界各地的賭場得以經營下去──犧牲者是來賭錢的無所事事之人。

發生的機會有多大?

費馬和巴斯卡之所以會想出捷徑,是因為他們聽到某個跟皮普斯所想類似的難題,然後受到啟發。

與兩人都相識的梅雷騎士(Chevalier de Méré)想要知道把賭注下在以下哪一個比較好:

  • (A) 擲一顆骰子 4 次後,擲出六點。
  • (B) 連續擲兩顆骰子 24 次後,擲出雙六。
擲骰子的機率很值得探討。圖/pexels

這位騎士實際上不具有騎士的貴族身分,他是一名學者,名叫龔博(Antoine Gombaud),他喜歡在對話作品中用這個頭銜代表自己的觀點。然而,這個頭銜沿用了下來,他的朋友們開始稱他為騎士。他選擇走遠路,做一大堆實驗,拿骰子擲了一遍又一遍,試圖解決這個骰子難題,但一直沒有確定的結果。

-----廣告,請繼續往下閱讀-----

於是龔博決定把這問題帶到一個由耶穌會士舉辦的沙龍,修士名叫梅森(Marin Mersenne),地點則是他在修道院的小房間。梅森有點像是當時巴黎的知識活動中心,他把收到的有趣問題寄給他認為可能會有高明見解的其他通信者。

說到龔博的難題,他毫無疑問寄到了很好的人選手中,費馬和巴斯卡的答覆確立了本章要談的捷徑:機率論(theory of probability)。

機率論真的能幫龔博贏錢嗎?

毫不意外的,走遠路其實並沒有幫龔博判定選哪一個賭注最有可能贏錢。費馬和巴斯卡把他們的機率新捷徑應用到骰子上,就發現選項 A 的發生機率是 52%,而選項 B 的發生機率為 49%。

如果賭骰子 100 次,隨機過程中存在的誤差會輕易掩蓋這種差異,也許要等差不多賭 1,000 次之後,真正的模式才會浮現。這就是為什麼這個捷徑會如此強大──它避免你一定得做很多苦力,反覆實驗,畢竟實驗結果搞不好還會讓你對問題理解錯誤。

-----廣告,請繼續往下閱讀-----

長期執行才有可能取得優勢

費馬和巴斯卡提出的捷徑有個特質很有趣,它長期下來才會真正幫你取得優勢。它不是幫忙賭徒在任何一次賭博中贏錢的捷徑,那仍然要碰碰運氣。但長期下來,情況就大不相同,這也解釋了為什麼它對賭場來說是好消息,然而對遊手好閒、巴望擲一次骰子就輕鬆賺到錢的賭徒來說,卻不是什麼好消息。

鏡頭回到倫敦。皮普斯寫下他在走路回家的途中,看賭徒設法擲出七點看得津津有味:

「聽到他們罵手氣怎麼這麼差,但沒什麼用,因為有個男子想要擲出七,但擲了很多次都擲不出,絕望透頂,嚷嚷說以後打死也不會再擲出七,而其他的人手氣很好,幾乎每次都擲出七。」

有個男子想要擲出七,但擲了很多次都擲不出,絕望透頂,嚷嚷說以後打死也不會再擲出七。圖/pexels

這個人的手氣是不是特別背,連一次七點也擲不出來?費馬和巴斯卡提出的策略,是用來算出以兩顆骰子擲出特定點數和的機會有多大,要先分析可能擲出的各種點數,然後看點數和為七的情形發生的比例。第一顆骰子可能擲出 6 種點數,加上第二顆骰子也有 6 種點數,總共就有 36 種不同的點數組合。在這些組合當中,有 6 種的點數和是七:

1 + 6、2 + 5、3 + 4、4 + 3、5 + 2、6 + 1

他們認為,假如每種組合發生的可能性一樣大,那麼 36 次當中就會有 6 次擲出七。這實際上是擲兩顆骰子時最有可能出現的點數和,但沒有擲出七的機會仍有六分之五。考慮到機率問題,皮普斯所看到的那位對擲了很多次骰子都沒出現七點感到如此絕望的紳士,手氣到底有多差?

-----廣告,請繼續往下閱讀-----

骰不出 7 到底是不是因為手氣特別爛?

他擲了 4 次骰子都沒擲出七的機會有多大?把所有不同的情形都列出來,看起來相當嚇人,因為總共有 364 =1,679,616 種結果。但費馬和巴斯卡伸出援手了,因為有捷徑。要算出 4 次都沒擲出七點的機會,只須把每次擲骰子的機率相乘:5/6 × 5/6 × 5/6 × 5/6 = 0.48。這表示連續 4 次沒有擲出七點的機會仍大約有二分之一。

相反的,這表示兩顆骰子擲 4 次之後,有一半的機會出現七點。同樣的分析可證明,一顆骰子擲 4 次後出現六點的機會也是一半一半。因此,皮普斯看到那個紳士擲 4 次骰子都沒出現七,不是什麼出人意料的事,就像丟一次硬幣的結果不是正面一樣。

在玩很多像西洋雙陸棋或《地產大亨》這樣要擲骰子的遊戲時,你可以把「最有可能擲出七」轉化成對自己有利的條件。

玩《地產大亨》時,你可以把「最有可能擲出七」轉化成對自己有利的條件。圖/pexels

舉例來說,坐牢是《地產大亨》棋盤上最常造訪的格子,再加上兩顆骰子可能點數和的分析結果,就意味許多玩家在走到坐牢這格之後,下一步會走到橘色房地產區的次數比其他格子還要多。所以你如果可以搶先在橘色區買地,在上面蓋旅館,就會讓自己在遊戲中更勝一籌。

-----廣告,請繼續往下閱讀-----

——本文摘自《數學就是這樣用:找出生活問題的最佳解》,2022 年 11 月,天下文化出版,未經同意請勿轉載。

-----廣告,請繼續往下閱讀-----
文章難易度
天下文化_96
142 篇文章 ・ 624 位粉絲
天下文化成立於1982年。一直堅持「傳播進步觀念,豐富閱讀世界」,已出版超過2,500種書籍,涵括財經企管、心理勵志、社會人文、科學文化、文學人生、健康生活、親子教養等領域。每一本書都帶給讀者知識、啟發、創意、以及實用的多重收穫,也持續引領台灣社會與國際重要管理潮流同步接軌。

0

0
0

文字

分享

0
0
0
拆解邊緣AI熱潮:伺服器如何提供穩固的運算基石?
鳥苷三磷酸 (PanSci Promo)_96
・2025/05/21 ・5071字 ・閱讀時間約 10 分鐘

本文與 研華科技 合作,泛科學企劃執行。

每次 NVIDIA 執行長黃仁勳公開發言,總能牽動整個 AI 產業的神經。然而,我們不妨設想一個更深層的問題——如今的 AI 幾乎都倚賴網路連線,那如果哪天「網路斷了」,會發生什麼事?

想像你正在自駕車打個盹,系統突然警示:「網路連線中斷」,車輛開始偏離路線,而前方竟是萬丈深谷。又或者家庭機器人被駭,開始暴走跳舞,甚至舉起刀具向你走來。

這會是黃仁勳期待的未來嗎?當然不是!也因為如此,「邊緣 AI」成為業界關注重點。不靠雲端,AI 就能在現場即時反應,不只更安全、低延遲,還能讓數據當場變現,不再淪為沉沒成本。

什麼是邊緣 AI ?

邊緣 AI,乍聽之下,好像是「孤單站在角落的人工智慧」,但事實上,它正是我們身邊最可靠、最即時的親密數位夥伴呀。

當前,像是企業、醫院、學校內部的伺服器,個人電腦,甚至手機等裝置,都可以成為「邊緣節點」。當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。簡單來說,就是將原本集中在遠端資料中心的運算能力,「搬家」到更靠近數據源頭的地方。

-----廣告,請繼續往下閱讀-----

那麼,為什麼需要這樣做?資料放在雲端,集中管理不是更方便嗎?對,就是不好。

當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。/ 圖片來源:MotionArray

第一個不好是物理限制:「延遲」。
即使光速已經非常快,數據從你家旁邊的路口傳到幾千公里外的雲端機房,再把分析結果傳回來,中間還要經過各種網路節點轉來轉去…這樣一來一回,就算只是幾十毫秒的延遲,對於需要「即刻反應」的 AI 應用,比如說工廠裡要精密控制的機械手臂、或者自駕車要判斷路況時,每一毫秒都攸關安全與精度,這點延遲都是無法接受的!這是物理距離與網路架構先天上的限制,無法繞過去。

第二個挑戰,是資訊科學跟工程上的考量:「頻寬」與「成本」。
你可以想像網路頻寬就像水管的粗細。隨著高解析影像與感測器數據不斷來回傳送,湧入的資料數據量就像超級大的水流,一下子就把水管塞爆!要避免流量爆炸,你就要一直擴充水管,也就是擴增頻寬,然而這樣的基礎建設成本是很驚人的。如果能在邊緣就先處理,把重要資訊「濃縮」過後再傳回雲端,是不是就能減輕頻寬負擔,也能節省大量費用呢?

第三個挑戰:系統「可靠性」與「韌性」。
如果所有運算都仰賴遠端的雲端時,一旦網路不穩、甚至斷線,那怎麼辦?很多關鍵應用,像是公共安全監控或是重要設備的預警系統,可不能這樣「看天吃飯」啊!邊緣處理讓系統更獨立,就算暫時斷線,本地的 AI 還是能繼續運作與即時反應,這在工程上是非常重要的考量。

所以你看,邊緣運算不是科學家們沒事找事做,它是順應數據特性和實際應用需求,一個非常合理的科學與工程上的最佳化選擇,是我們想要抓住即時數據價值,非走不可的一條路!

邊緣 AI 的實戰魅力:從工廠到倉儲,再到你的工作桌

知道要把 AI 算力搬到邊緣了,接下來的問題就是─邊緣 AI 究竟強在哪裡呢?它強就強在能夠做到「深度感知(Deep Perception)」!

-----廣告,請繼續往下閱讀-----

所謂深度感知,並非僅僅是對數據進行簡單的加加減減,而是透過如深度神經網路這類複雜的 AI 模型,從原始數據裡面,去「理解」出更高層次、更具意義的資訊。

研華科技為例,旗下已有多項邊緣 AI 的實戰應用。以工業瑕疵檢測為例,利用物件偵測模型,快速將工業產品中的瑕疵挑出來,而且由於 AI 模型可以使用同一套參數去檢測,因此品管上能達到一致性,減少人為疏漏。尤其在高產能工廠中,檢測速度必須快、狠、準。研華這套 AI 系統每分鐘最高可處理 8,000 件產品,替工廠節省大量人力,同時確保品質穩定。這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。

這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。/ 圖片提供:研華科技

此外,在智慧倉儲場域,研華與威剛合作,研華與威剛聯手合作,在 MIC-732AO 伺服器上搭載輝達的 Nova Orin 開發平台,打造倉儲系統的 AMR(Autonomous Mobile Robot) 自走車。這跟過去在倉儲系統中使用的自動導引車 AGV 技術不一樣,AMR 不需要事先規劃好路線,靠著感測器偵測,就能輕鬆避開障礙物,識別路線,並且將貨物載到指定地點存放。

當然,還有語言模型的應用。例如結合檢索增強生成 ( RAG ) 跟上下文學習 ( in-context learning ),除了可以做備忘錄跟排程規劃以外,還能將實務上碰到的問題記錄下來,等到之後碰到類似的問題時,就能詢問 AI 並得到解答。

你或許會問,那為什麼不直接使用 ChatGPT 就好了?其實,對許多企業來說,內部資料往往具有高度機密性與商業價值,有些場域甚至連手機都禁止員工帶入,自然無法將資料上傳雲端。對於重視資安,又希望運用 AI 提升效率的企業與工廠而言,自行部署大型語言模型(self-hosted LLM)才是理想選擇。而這樣的應用,並不需要龐大的設備。研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。

但問題也接著浮現:要在這麼小的設備上跑大型 AI 模型,會不會太吃資源?這正是目前 AI 領域最前沿、最火熱的研究方向之一:如何幫 AI 模型進行「科學瘦身」,又不減智慧。接下來,我們就來看看科學家是怎麼幫 AI 減重的。

-----廣告,請繼續往下閱讀-----

語言模型瘦身術之一:量化(Quantization)—用更精簡的數位方式來表示知識

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。這其實跟圖片壓縮有點像:有些畫面細節我們肉眼根本看不出來,刪掉也不影響整體感覺,卻能大幅減少檔案大小。

模型量化的原理也是如此,只不過對象是模型裡面的參數。這些參數原先通常都是以「浮點數」表示,什麼是浮點數?其實就是你我都熟知的小數。舉例來說,圓周率是個無窮不循環小數,唸下去就會是3.141592653…但實際運算時,我們常常用 3.14 或甚至直接用 3,也能得到夠用的結果。降低模型參數中浮點數的精度就是這個意思! 

然而,量化並不是那麼容易的事情。而且實際上,降低精度多少還是會影響到模型表現的。因此在設計時,工程師會精密調整,確保效能在可接受範圍內,達成「瘦身不減智」的目標。

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。/ 圖片來源:MotionArray

模型剪枝(Model Pruning)—基於重要性的結構精簡

建立一個 AI 模型,其實就是在搭建一整套類神經網路系統,並訓練類神經元中彼此關聯的參數。然而,在這麼多參數中,總會有一些參數明明佔了一個位置,卻對整體模型沒有貢獻。既然如此,不如果斷將這些「冗餘」移除。

這就像種植作物的時候,總會雜草叢生,但這些雜草並不是我們想要的作物,這時候我們就會動手清理雜草。在語言模型中也會有這樣的雜草存在,而動手去清理這些不需要的連結參數或神經元的技術,就稱為 AI 模型的模型剪枝(Model Pruning)。

-----廣告,請繼續往下閱讀-----

模型剪枝的效果,大概能把100變成70這樣的程度,說多也不是太多。雖然這樣的縮減對於提升效率已具幫助,但若我們要的是一個更小幾個數量級的模型,僅靠剪枝仍不足以應對。最後還是需要從源頭著手,採取更治本的方法:一開始就打造一個很小的模型,並讓它去學習大模型的知識。這項技術被稱為「知識蒸餾」,是目前 AI 模型壓縮領域中最具潛力的方法之一。

知識蒸餾(Knowledge Distillation)—讓小模型學習大師的「精髓」

想像一下,一位經驗豐富、見多識廣的老師傅,就是那個龐大而強悍的 AI 模型。現在,他要培養一位年輕學徒—小型 AI 模型。與其只是告訴小型模型正確答案,老師傅 (大模型) 會更直接傳授他做判斷時的「思考過程」跟「眉角」,例如「為什麼我會這樣想?」、「其他選項的可能性有多少?」。這樣一來,小小的學徒模型,用它有限的「腦容量」,也能學到老師傅的「智慧精髓」,表現就能大幅提升!這是一種很高級的訓練技巧,跟遷移學習有關。

舉個例子,當大型語言模型在收到「晚餐:鳳梨」這組輸入時,它下一個會接的詞語跟機率分別為「炒飯:50%,蝦球:30%,披薩:15%,汁:5%」。在知識蒸餾的過程中,它可以把這套機率表一起教給小語言模型,讓小語言模型不必透過自己訓練,也能輕鬆得到這個推理過程。如今,許多高效的小型語言模型正是透過這項技術訓練而成,讓我們得以在資源有限的邊緣設備上,也能部署愈來愈強大的小模型 AI。

但是!即使模型經過了這些科學方法的優化,變得比較「苗條」了,要真正在邊緣環境中處理如潮水般湧現的資料,並且高速、即時、穩定地運作,仍然需要一個夠強的「引擎」來驅動它們。也就是說,要把這些經過科學千錘百鍊、但依然需要大量計算的 AI 模型,真正放到邊緣的現場去發揮作用,就需要一個強大的「硬體平台」來承載。

-----廣告,請繼續往下閱讀-----

邊緣 AI 的強心臟:SKY-602E3 的三大關鍵

像研華的 SKY-602E3 塔式 GPU 伺服器,就是扮演「邊緣 AI 引擎」的關鍵角色!那麼,它到底厲害在哪?

一、核心算力
它最多可安裝 4 張雙寬度 GPU 顯示卡。為什麼 GPU 這麼重要?因為 GPU 的設計,天生就擅長做「平行計算」,這正好就是 AI 模型裡面那種海量數學運算最需要的!

你想想看,那麼多數據要同時處理,就像要請一大堆人同時算數學一樣,GPU 就是那個最有效率的工具人!而且,有多張 GPU,代表可以同時跑更多不同的 AI 任務,或者處理更大流量的數據。這是確保那些科學研究成果,在邊緣能真正「跑起來」、「跑得快」、而且「能同時做更多事」的物理基礎!

二、工程適應性——塔式設計。
邊緣環境通常不是那種恆溫恆濕的標準機房,有時是在工廠角落、辦公室一隅、或某個研究實驗室。這種塔式的機箱設計,體積相對緊湊,散熱空間也比較好(這對高功耗的 GPU 很重要!),部署起來比傳統機架式伺服器更有彈性。這就是把高性能計算,進行「工程化」,讓它能適應台灣多樣化的邊緣應用場景。

三、可靠性
SKY-602E3 用的是伺服器等級的主機板、ECC 糾錯記憶體、還有備援電源供應器等等。這些聽起來很硬的規格,背後代表的是嚴謹的工程可靠性設計。畢竟在邊緣現場,系統穩定壓倒一切!你總不希望 AI 分析跑到一半就掛掉吧?這些設計確保了部署在現場的 AI 系統,能夠長時間、穩定地運作,把實驗室裡的科學成果,可靠地轉化成實際的應用價值。

-----廣告,請繼續往下閱讀-----
研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。/ 圖片提供:研華科技

台灣製造 × 在地智慧:打造專屬的邊緣 AI 解決方案

研華科技攜手八維智能,能幫助企業或機構提供客製化的AI解決方案。他們的技術能力涵蓋了自然語言處理、電腦視覺、預測性大數據分析、全端軟體開發與部署,及AI軟硬體整合。

無論是大小型語言模型的微調、工業瑕疵檢測的模型訓練、大數據分析,還是其他 AI 相關的服務,都能交給研華與八維智能來協助完成。他們甚至提供 GPU 與伺服器的租借服務,讓企業在啟動 AI 專案前,大幅降低前期投入門檻,靈活又實用。

台灣有著獨特的產業結構,從精密製造、城市交通管理,到因應高齡化社會的智慧醫療與公共安全,都是邊緣 AI 的理想應用場域。更重要的是,這些情境中許多關鍵資訊都具有高度的「時效性」。像是產線上的一處異常、道路上的突發狀況、醫療設備的即刻警示,這些都需要分秒必爭的即時回應。

如果我們還需要將數據送上雲端分析、再等待回傳結果,往往已經錯失最佳反應時機。這也是為什麼邊緣 AI,不只是一項技術創新,更是一條把尖端 AI 科學落地、真正發揮產業生產力與社會價值的關鍵路徑。讓數據在生成的那一刻、在事件發生的現場,就能被有效的「理解」與「利用」,是將數據垃圾變成數據黃金的賢者之石!

👉 更多研華Edge AI解決方案
👉 立即申請Server租借

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

0

1
0

文字

分享

0
1
0
賭博與愛情公式:用數學擬定你的擇偶策略——《數盲、詐騙與偽科學》
大牌出版.出版大牌_96
・2024/01/06 ・2486字 ・閱讀時間約 5 分鐘

-----廣告,請繼續往下閱讀-----

理解期望值,有助於分析賭場裡的大部分賭局,以及美國中西部和英國的嘉年華會中,常有人玩、但一般人比較不熟悉的賭法:骰子擲好運(chuck-a-luck)。

招攬人來玩「骰子擲好運」的說詞極具說服力:你從 1 到 6 挑一個號碼,莊家一次擲三顆骰子,如果三個骰子都擲出你挑的號碼,莊家付你 3 美元。要是三個骰子裡出現兩個你挑的號碼,莊家付你 2 美元。

假如三個骰子裡只出現一個你挑的號碼,莊家付你 1 美元。如果你挑的號碼一個也沒有出現,那你要付莊家 1 美元。賽局用三個不同的骰子,你有三次機會贏,而且,有時候你還不只贏 1 美元,最多也不過輸 1 美元。

我們可以套用名主持人瓊安.李維絲(Joan Rivers)的名言(按:她的名言是:「我們能聊一聊嗎?」),問一句:「我們能算一算嗎?」(如果你寧願不算,可以跳過這一節。)不管你選哪個號碼,贏的機率顯然都一樣。不過,為了讓計算更明確易懂,假設你永遠都選 4。骰子是獨立的,三個骰子都出現 4 點的機率是 1/6×1/6×1/6=1/216,你約有 1/216 的機率會贏得 3 美元。

-----廣告,請繼續往下閱讀-----

僅有兩個骰子出現 4 點的機率,會難算一點。但你可以使用第 1 章提到的二項機率分布,我會在這裡再導一遍。三個骰子中出現兩個 4,有三種彼此互斥的情況:X44、4X4 或 44X,其中 X 代表任何非 4 的點數。而第一種的機率是 5/6×1/6×1/6=5/216,第二種和第三種的結果也是這樣。三者相加,可得出三個骰子裡出現兩個 4 點的機率為 15/216,你有這樣的機率會贏得 2 美元。

圖/envato

同樣的,要算出三個骰子裡只出現一個 4 點的機率,也是要將事件分解成三種互斥的情況。得出 4XX 的機率為 1/6×5/6×5/6=25/216,得到 X4X 和 XX4 的機率亦同,三者相加,得出 75/216。這是三個骰子裡僅出現一個 4 點的機率,因此也是你贏得 1 美元的機率。

要計算擲三個骰子都沒有出現 4 點的機率,我們只要算出剩下的機率是多少即可。算法是用 1(或是100%)減去(1/216 +15/216 + 75/216),得出的答案是 125/216。所以,平均而言,你每玩 216 次骰子擲好運,就有 125 次要輸 1 美元。

這樣一來,就可以算出你贏的期望值($3×1/216)+($2×15/216)+($1×75/216)+(–$1×125/216)=$(–17/216)=–$0.08。平均來說,你每玩一次這個看起來很有吸引力的賭局,大概就要輸掉 8 美分。

-----廣告,請繼續往下閱讀-----

尋找愛情,有公式?

面對愛情,有人從感性出發,有人以理性去愛。兩種單獨運作時顯然效果都不太好,但加起來⋯⋯也不是很妙。不過,如果善用兩者,成功的機率可能還是大一些。回想舊愛,憑感性去愛的人很可能悲嘆錯失的良緣,並認為自己以後再也不會這麼愛一個人了。而用比較冷靜的態度去愛的人,很可能會對以下的機率結果感興趣。

在我們的模型中,假設女主角——就叫她香桃吧(按:在希臘神話中,香桃木﹝Myrtle﹞是愛神阿芙蘿黛蒂﹝Aphrodite﹞的代表植物,象徵愛與美)有理由相信,在她的「約會生涯」中,會遇到 N 個可能成為配偶的人。對某些女性來說,N 可能等於 2;對另一些人來說,N 也許是 200。香桃思考的問題是:到了什麼時候我就應該接受X先生,不管在他之後可能有某些追求者比他「更好」?我們也假設她是一次遇見一個人,有能力判斷她遇到的人是否適合她,以及,一旦她拒絕了某個人之後,此人就永遠出局。

為了便於說明,假設香桃到目前為止已經見過 6 位男士,她對這些人的排序如下:3—5—1—6—2—4。這是指,在她約過會的這 6 人中,她對見到的第一人的喜歡程度排第 3 名,對第二人的喜歡程度排第 5 名,最喜歡第三個人,以此類推。如果她見了第七個人,她對此人的喜歡程度超過其他人,但第三人仍穩居寶座,那她的更新排序就會變成 4—6—1—7—3—5—2。每見過一個人,她就更新追求者的相對排序。她在想,到底要用什麼樣的規則擇偶,才能讓她最有機會從預估的 N 位追求者中,選出最好的。

圖/envato

要得出最好的策略,要善用條件機率(我們會在下一章介紹條件機率)和一點微積分,但策略本身講起來很簡單。如果有某個人比過去的對象都好,且讓我們把此人稱為真命天子。如果香桃打算和 N 個人碰面,她大概需要拒絕前面的 37%,之後真命天子出現時(如果有的話),就接受。

-----廣告,請繼續往下閱讀-----

舉例來說,假設香桃不是太有魅力,她很可能只會遇見 4 個合格的追求者。我們進一步假設,這 4 個人與她相見的順序,是 24 種可能性中的任何一種(24=4×3×2×1)。

由於 N=4,37% 策略在這個例子中不夠清楚(無法對應到整數),而 37% 介於 25% 與 50% 之間,因此有兩套對應的最佳策略如下:

(A)拒絕第一個對象(4×25%=1),接受後來最佳的對象。

(B)拒絕前兩名追求者(4×50%=2),接受後來最好的求愛者。

如果採取A策略,香桃會在 24 種可能性中的 11 種,選到最好的追求者。採取 B 策略的話,會在 24 種可能性中的 10 種裡擇偶成功。

以下列出所有序列,如同前述,1 代表香桃最偏好的追求者,2 代表她的次佳選擇,以此類推。因此,3—2—1—4 代表她先遇見第三選擇,再來遇見第二選擇,第三次遇到最佳選擇,最後則遇到下下之選。序列後面標示的 A 或 B,代表在這些情況下,採取 A 策略或 B 策略能讓她選到真命天子。

-----廣告,請繼續往下閱讀-----

1234;1243;1324;1342;1423;1432;2134(A);2143(A);2314(A, B);2341(A, B);2413(A, B);2431(A, B);3124(A);3142(A);3214(B);3241(B);3412(A, B);3421;4123(A);4132(A);4213(B);4231(B);4312(B);4321

如果香桃很有魅力,預期可以遇見 25 位追求者,那她的策略是要拒絕前 9 位追求者(25 的 37% 約為 9),接受之後出現的最好對象。我們也可以用類似的表來驗證,但是這個表會變得很龐雜,因此,最好的策略就是接受通用證明。(不用多說,如果要找伴的人是男士而非女士,同樣的分析也成立。)如果 N 的數值很大,那麼,香桃遵循這套 37% 法則擇偶的成功率也約略是 37%。接下來的部分就比較難了:要如何和真命天子相伴相守。話說回來,這個 37% 法則數學模型也衍生出許多版本,其中加上了更合理的戀愛限制條件。

——本書摘自《數盲、詐騙與偽科學》,2023 年 11 月,大牌出版,未經同意請勿轉載。

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

大牌出版.出版大牌_96
3 篇文章 ・ 0 位粉絲
閱讀的大牌不侷限於單一領域, 視野寬廣,知識豐富,思考獨立。

0

10
2

文字

分享

0
10
2
鑑識故事系列:Lucia de Berk 值班死幾人?荷蘭護理冤案
胡中行_96
・2023/02/27 ・2983字 ・閱讀時間約 6 分鐘

前言:本文為鑑識系列中,罕見提及統計學的故事。不過,繁複的計算過程全部省略,僅討論統計概念和辦案原理。請害怕數學的讀者放心。

護理人員 Lucia de Berk。圖/Carole Edrich on Wikimedia Commons(CC BY-SA 3.0)

荷蘭護理人員 Lucia de Berk,長年於海牙茱莉安娜兒童醫院(Juliana Kinderziekenhuis)的 1 個病房,與紅十字醫院(Rode Kruis Ziekenhuis)的 2 個病房工作。2001 年 12 月,她因謀殺罪嫌被捕。[1]

超幾何分佈

警方起先偵辦 2 名住院病患的死因,發現是中毒身亡;後來連帶調查 1997 至 2001 年間,幾家醫院可能的謀殺案件,於是找上了她。[2]在法庭上,司法心理學家 Henk Elffers 用機率的概念,證明 Lucia de Berk 有罪。簡單來說,就是計算嫌犯現身出事班次的機率。他採取的統計方法,叫做超幾何分佈(又稱「超幾何分配」;hypergeometric distribution)。[1]

超幾何分佈適合用在從一個母數中,隨機抽取樣本,不再放回的情形。例如:袋子裝有 N 顆球,其中 L 顆為紅球。一把抓出 n 顆球,不特別挑選的話,紅球碰巧被抓到的機率為 X。[3, 4]以此類推,在此案被調查的時間範圍內,病房總共有 N 個班次,其中 Lucia de Berk 值了 L 班,而有醫療事故的班次共 n 個。如果不刻意安排,則她正好出現在事故班次的機率為 X。[1]公式介紹。[4]

此處實際帶入數據後得到的答案,說明 Lucia de Berk 理論上應該只有 3 億 4 千 2 百萬分之一(X = 1 / 3.42 x 108)的機率,會剛好在醫療事故發生的班次值班。因此,法庭認定她的頻繁出現(> 1 / 3.42 x 108),絕非巧合。[1, 2, 5, 6]2003 年,Lucia de Berk因 7 起謀殺和 3 次殺人未遂,[2]被判終身監禁。[5]

茱利安納兒童醫院(Juliana Kinderziekenhuis)外觀。圖/Joris on Wikimedia Commons(CC BY-SA 3.0)
紅十字醫院(Rode Kruis Ziekenhuis)已於 2021 年關閉。圖/1Veertje on Wikimedia Commons(CC BY-SA 4.0)。

統計謬誤

當時有位醫師任職於 Lucia de Berk 待過的一家醫院。他的女性姻親 Metta de Noo-Derksen 醫師,以及 Metta 的兄弟 Ton Derksen 教授,都覺得事有蹊蹺。[7]Metta 和 Ton 檢視死者的病歷紀錄,並指出部份醫療事故的類型和事發時間,與判決所用的數據對不起來因為後者大半仰賴記憶,他們甚至發現有些遭指控的班次,Lucia de Berk 其實不在現場。然而,光是這些校正,還不足以推翻判決。[1, 7]

-----廣告,請繼續往下閱讀-----

所幸出生於英國的荷蘭萊頓大學(Universiteit Leiden)統計學榮譽教授 Richard Gill,也伸出援手。[2]在協助此案的多年後,他的團隊發表了一篇論文,解釋不該使用超幾何分佈的理由,例如:[1]

  1. 護理人員不可互換:所有受訪醫師都說,護理人員可以相互替換;但是護理人員覺得,他們無法取代彼此。由於各別的個性與行事風格迥異,他們對病患的影響也不同。[1]
  2. 醫療事故通報機率:既然每個護理人員都有自己的個性,他們判定某事件為醫療事故,並且通報醫師的機率也不一樣。[1]畢竟醫院的通報規定是一回事;符合標準與否,都由護理人員判斷。比方說,有個病患每次緊張,血壓就破表。那就讓他坐著冷靜會兒,再登記第二次測量的正常結果即可。不過,難免會有菜鳥護士量一次就嚇到通報,分明給病房添亂。
  3. 班次與季節事故率:夜間與週末只剩護理人員和少數待命的醫師;季節性的特定病例增減;以及病患的生理時鐘等,都會影響出事的機率。[1]
  4. 護理排班並不平均:護理人員的班次安排,理想上會有帶狀的規律。可能連續幾天都是白班,接著是幾個小夜班之類的,[1]比較方便調整作息。此外,護理人員的資歷和個性,通常也會被納入考量。[1]以免某個班次全是資深人員;但另個班次緊急事故發生時,卻只剩不會臨機應變的新手。在這樣的排班原則下,如果單看某個時期的班表,每個人所輪到的各類班次總數,應該不會完全相同。
  5. 出院政策曾經改變:茱莉安娜兒童醫院在案發期間,曾經針對確定救不活的小病患,是否該在家中或病房離世,做過政策上的調整。帳面上來說,算在病房裡的事故量絕對會有變化。[1]

總之,太多因素會影響護理排班,或是干擾醫療事故的通報率,因此不能過度簡化成抽取紅球那樣的隨機概念。更嚴重的是,Henk Elffers 在計算過程中,分開處理 3 個病房的機率,然後再相乘。Richard Gill 的團隊強調,這樣會造成在多處上班的護理人員,比只為一處服務者,看起來有較高的嫌疑。[1]

帕松分佈

因應這種情境,Richard Gill 教授建議採用帕松分佈(又譯「布阿松分配」;Poisson distribution),[1]一種描述特定時間內,事件發生率的統計模型。[8]有別於先前的計算方法,在這裡事故傾向(accident proneness),以及整體排班狀況等變因,都納入了考量。前者採計護理人員通報醫療事故的意願強度;後者則為輪班的總次數。這個模型通常是拿來推估非尖峰時段的來電、大城市的火災等,也適用於 Lucia de Berk 的案子。[1](深入瞭解公式計算(p. 4 – 6)。[1, 8]

雖然此模型的細節複雜,統計學家得大費周章解釋給法官聽,但是考慮的條件比較趨近真實。倘若套用原始判決的數據,這個計算最後的答案是 0.0206161,意即醫療事故本來就有 49 分之 1 的機率,會與 Lucia de Berk 的班次重疊。如果帶入 Mettade Noo-Derksen 和 Ton Derksen 校正過的數據,機率更高達 9 分之 1。[1, 9]換句話說,她單純是倒楣出現在那裡,就被當作連續殺人犯。[6]

其他證據與翻案

大相逕庭的計算結果,顯示出選擇正確統計模型的重要性。然而,最不合理的,是以機率作為判決的主要根據。就謀殺案件來說,怎能不忠於病歷或驗屍報告?Richard Gill 教授接受美國犯罪學講師 Jon Robins 的訪問時,表示後來由醫師和毒物學家組成的獨立團隊,被允許瀏覽當初沒送上法庭的關鍵資料。[2]他們發現原本被視為受害者的病患,根本都喪命於自然死因。[2, 6]

在各方人士的協助下,Lucia de Berk 還是歷經兩次上訴失敗。[6]她曾於 2008 年,被允許在家等候重審結果。[1]但直到 2010 年 4 月,司法才還她清白。[7]Ton Derksen 認為,在荷蘭像這樣誤判的案件,約佔總判決數的 4 至 11%,也就是每年 1,000 人左右。不過,2006 到 2016 年間被判刑的 2 萬 3 千人裡,只有 5 個上訴到最高法院,而且僅 Lucia de Berk 的案子得以平反。[10]

-----廣告,請繼續往下閱讀-----
Lucia de Berk 冤案改編電影的海報。圖/電影《Lucia de B.》(2014) on IMDB

  

  1. Gill RD, Groeneboom P, de Jong P. (2018) ‘Elementary Statistics on Trial—The Case of Lucia de Berk’. Chance 31, 4, pp. 9-15.
  2. Robins J. (10 APR 2020) ‘Ben Geen: Statisticians back former nurse’s in last chance to clear name’. The Justice Gap.
  3. 超幾何分佈」國立高雄大學統計學研究所(Accessed on 03 FEB 2023)
  4. 李柏堅(06 FEB 2015)「超幾何分配CUSTCourses on YouTube.
  5. Sims J. (24 FEB 2022) ‘Are We in the Midst of a Data Illiteracy Epidemic?’. Inside Hook.
  6. Schneps L, Colmez C. (26 MAR 2013) ‘Justice Flunks Math’. The New York Times.
  7. Alexander R. (28 APR 2013) ‘Amanda Knox and bad maths in court’. BBC News.
  8. 李伯堅(04 FEB 2015)「布阿松分配」CUSTCourses on YouTube.
  9. Wilson D. (13 DEC 2022) ‘Red flag to be wary of when hunting a killer nurse’. The Herald, Scotland.
  10. One in nine criminals may have been wrongly convicted – research’. (21 NOV 2016) Dutch News.
-----廣告,請繼續往下閱讀-----
胡中行_96
169 篇文章 ・ 67 位粉絲
曾任澳洲臨床試驗研究護理師,以及臺、澳劇場工作者。 西澳大學護理碩士、國立台北藝術大學戲劇學士(主修編劇)。邀稿請洽臉書「荒誕遊牧」,謝謝。