0

21
2

文字

分享

0
21
2

規則就是用來打破的!挑戰生存法則的裸鼴鼠

Lea Tang
・2019/04/02 ・2425字 ・閱讀時間約 5 分鐘 ・SR值 546 ・八年級

裸鼴鼠是一種齧齒目動物,這是實驗室中裸鼴鼠的模樣。圖/sciencemag

看到裸鼴鼠(Heterocephalus glaber)的第一眼,各位可能會忍不住再多看幾眼。

這種全身帶有粉色皺皮和突出牙齒的齧齒目動物群居在地底,主要分布於東非,是一種社會性哺乳動物。和螞蟻和胡蜂一樣,在多達 70 隻個體的裸鼴鼠族群中:一隻「女王」負責生育,幾隻雄鼠負責提供精子,其餘則是沒有繁殖能力的工鼠。

裸鼴鼠的視力不好,但無毛的身體能讓牠們在狹窄地道內自由穿梭、外凸的牙齒則讓牠們在挖土工作時能閉上嘴巴,免得誤食土塊。

除了外形,牠們還有著特殊的生理機制,幫助牠們適應地底惡劣的環境。裸鼴鼠的體溫能隨著環境變化,不但沒有大部分的痛覺,而且幾乎不會得到癌症。

甚至,牠們能在完全無氧的環境下存活 18 分鐘。

-----廣告,請繼續往下閱讀-----
圖/farm3.static.flickr.com

沒有氧氣會死嗎?那你怎麼沒感覺

對所有生物來說,氧氣是我們賴以為生的重要存在。人類只要缺氧 3 分鐘,大腦就會受損,幾分鐘內就會死亡。但「無氧生活」對裸鼴鼠來說似乎並不是這麼大的威脅。通常,裸鼴鼠會一團一團的擠在地道內。雖然空氣很稀薄但牠們卻不會喘不過氣,生活看來毫不受影響,這種狀況讓科學家開始對牠們的耐氧極限產生興趣。

裸鼴鼠能在完全無氧的環境下存活 18 分鐘。圖/Flickr

經過測試,把空氣中的氧降低到 5 %時,實驗室老鼠會在 10 分鐘內死亡,但裸鼴鼠卻完全沒有反應,甚至沒有嗜睡、或昏迷的狀況出現。當空氣中的氧氣降至 0 %時,實驗室老鼠和裸鼴鼠都陷入昏迷:雖然裸鼴鼠的心跳從每分鐘 200 次→ 50 次,牠們卻還是可以在神經系統沒有受損的情況下存活 18 分鐘,而實驗室老鼠則是再也沒有恢復意識。

能讓裸鼴鼠恢復意識的關鍵就在血液中迅速升高的果糖

人類代謝時若沒有氧氣,葡萄糖就無法轉換成能量。然而,與人類同屬哺乳類的裸鼴鼠,卻可以像植物一樣,在沒有氧氣的情況下轉而使用果糖來代謝(雖然效率不高),穩定生存下去。

除此之外,裸鼴鼠似乎也不會衰老。

-----廣告,請繼續往下閱讀-----

誰說老了沒有用?那你怎麼還在生

一直以來,科學家們都有注意到這個動物很少表現出衰老的現象。隨著年紀增長,裸鼴鼠的死亡率不但比其它有紀錄的哺乳類動物低、壽命也較一般囓齒動物長。一般圈養的小鼠最多活 4 年,以裸鼴鼠的身形大小來估計,牠們應該活不過 6 年。令人意外的是,有些裸鼴鼠可以活到 30 歲以上,而就算已經「步入老年」,雌性的繁殖力仍然很強。

圖/wikipedia

比較生物學家羅謝爾 · 巴芬斯坦(Rochelle Buffenstein)花了超過 30 年來紀錄 3329 隻裸鼴鼠的生活史,她發現裸鼴鼠似乎違背了岡珀茨–梅卡姆死亡率定律,一種描述哺乳類衰老的方程式:

哺乳類的死亡率隨年歲增加而上升。

以人類為例,過了 30 歲後的死亡率每 8 年遞增兩倍。一般來說,100 隻動物就足以觀察到符合岡珀茨法則的死亡曲線,但巴芬斯坦的數據卻表示裸鼴鼠死亡風險不隨年齡增長而上升(反而還略有下降)。

難道裸鼴鼠吃了不老藥?原因就在裸鼴鼠具有非常活躍的 DNA 修復能力和高水平的伴侶蛋白——這些蛋白質可幫助其他蛋白質正確折疊。儘管部分科學家認為這並非一個全面性的結論,但對許多人來說,它仍然是一個非常重要且引人注目的新數據。

-----廣告,請繼續往下閱讀-----

何不食糞乎?三大好處報你知

如前文所說,裸鼴鼠是一個高度分工的社會化動物:女王負責生,工鼠負責育。現在問題來了,工鼠因為不具有生育能力所以無法合成性激素,可是性激素是促進個體母愛氾濫、照顧幼崽的必備條件,少了性荷爾蒙的工鼠怎麼會心甘情願地照顧別人的小寶寶呢?

圖/sciencenews

答案就在餵屎

裸鼴鼠是一種食糞動物,工鼠攝入女王生育後富含雌激素的糞便後,體內的雌二醇增加,因此對幼崽的鳴叫變得敏銳、出現育幼的行為。為了證明激素是育兒的關鍵因素,科學家們設計另一項實驗:把未妊娠的女王糞便分兩組,一組添加雌二醇,一組沒加,然後觀察吃掉糞便後的工鼠行為:

吃到激素的工鼠會母愛爆棚、對小寶寶的叫喚聲更有感,只要孩子一叫,就立刻飛奔過去。

裸鼴鼠食糞的另外兩個原因是幫助消化和標記成員。糞便中的腸道菌能幫助牠們消化主食——鬚根和塊莖;且既然是同一族群,應該要有一致的氣味利於區分敵我,如果有不同氣味的個體進入巢穴,就會被工鼠攻擊。

-----廣告,請繼續往下閱讀-----

二次元教室:好像在哪裡見過你?

最後的最後,就像那些我們最常聽到的搭訕問話:裸鼴鼠寶貝,我們是不是在哪裡見過?

圖/gamer

是的,就是日本作家貴志佑介小說《來自新世界》中的化鼠。※以下有雷

牠們是一種齧齒類哺乳動物,祖先來自裸鼴鼠。化鼠的社會型態一樣有一隻女王,有交配能力的公鼠和其它無繁衍能力的工鼠。

在小說中,化鼠是地表上除了人類以外唯二擁有智慧的生物。牠們原本受到人類控管,是勞工一般的存在,後來因為智力快速的進化,對人類展開襲擊。看到最後,讀者會發現化鼠其實就是人類,只是他們因為沒有能力、被社會淘汰,然後被改造了。

-----廣告,請繼續往下閱讀-----

由於裸鼴鼠與人類基因的 DNA 有高達 80%到 93%相同,也許,這就是作者為什麼會以裸鼴鼠做為參考的主要原因吧!

參考資料:

  1. Naked mole rats defy the biological law of aging
  2. Gompertz–Makeham law of mortality
  3. Naked mole-rats are now even weirder: Without oxygen, they live like plants
  4. Sweet? Naked mole rats can survive without oxygen using plant sugar tactic
  5. [中文字幕]有關裸鼴鼠的幾大真相True Facts About The Naked Mole Rat
  6. How Eating Poop Makes These Mole-Rats More Motherly
  7. Naked mole-rats eat the poop of their queen for parenting cues

 

文章難易度
Lea Tang
20 篇文章 ・ 9 位粉絲
徜徉在極北之海的浪漫主義者。 喜歡鯨豚、地科、文學和貓。

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

-----廣告,請繼續往下閱讀-----

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
文章難易度

討論功能關閉中。

賴昭正_96
43 篇文章 ・ 56 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

0

11
0

文字

分享

0
11
0
石器與傍人一同出土,誰是人之初的石器匠?
寒波_96
・2023/04/12 ・3785字 ・閱讀時間約 7 分鐘

古人類學研究中,如果挖掘現場同時出土石器和化石,多半會判斷石器的製造者,就是化石所屬的古人類。公元 2023 年發表的一項研究,卻讓智人們都很猶豫,因為與石器一起出土的死人骨頭竟然不是「人」,而是 Homo 的近親:傍人。究竟誰才是人之初的石器匠?

傍人拿著木棒,想像圖。圖/參考資料5

最早的奧都萬石器

空間上,遺址地點位於肯亞西部的 Nyayanga,非洲東部有多個大湖,這兒也是維多利亞湖的東北角,古時候算是適宜人居的優質地段。

時間上,年代不是那麼清楚。論文寫法是距今 259.5 到 303.2 萬年前之間,意思不是說延續 40 萬年那麼久,而是這段期間的某個時間點,或是某幾段時間,無法精確區分。如果簡單說一個大概年份,可以採取 290 萬年。

年代的判斷方式不只一種。原理為放射性元素的鈾釷/氦定年法((U-Th)/He dating)得到將近 300 萬年的數字,地磁反轉則判斷早於 258 萬年。地球的地磁曾經不定期反轉過好幾次,假如確認地層早於 258 萬年前的反轉,便能推測樣本比 258 萬年更早。

-----廣告,請繼續往下閱讀-----
Nyayanga 遺址的地點,附近就是維多利亞湖。圖/參考資料1

遺址總共出土 330 件人造物,195 件在地表撿到,135 件在遺址內挖到。石器數量不少,材質是當地不難取得的石英和流紋岩(rhyolite)。從形貌看來,確實是人為製作的工具,已經可以視為成熟的奧都萬(Oldowan)風格。

奧都萬石器最早於 1930 年代在坦尚尼亞出土,研究領導者正是上古神獸:路易斯.李奇(Louis Leakey)。2019 年的論文報告,衣索比亞的 Bokol Dora 1 出土的石器,比 258 萬年前的地磁反轉更早一些;這回肯亞的遺址年代似乎更早,也就是最早的奧都萬石器。

東非草原,多用途的工具

過往知道超過 200 萬年的奧都萬產品,大部分位於衣索比亞的阿法地區(就是命名「阿法南猿 Australopithecus afarensis」的那個地名阿法),距離這回的遺址超過 1300 公里。看來初期奧都萬使用者,分佈範圍不小。

Nyayanga 遺址出土的石器,屬於奧都萬風格。看似簡陋,意義卻可謂當年最先進的台積電晶片。圖/參考資料4

討論這些古人類學的議題時,我們習慣統稱作「東非」,不過東非概念類似東亞,相關地區的面積實際上很大,有時候距離可能超級遠。

-----廣告,請繼續往下閱讀-----

儘管相距甚遠,遺址當年似乎都是 C4 植物為主的草地,夾雜一些樹木,也就是如今常見的東非草原地形。這應該就是奧都萬使用者喜歡的環境。

石器是工具,做什麼用呢?根據磨痕等資訊判斷,有些石器曾接觸過堅硬的植物部位,如樹幹,也有些處理過軟的植物部位;另外還切割、砍砸過動物的骨頭與肉肉。

遺址出土的動物骨頭不少,能確定遭到石器迫害過的有河馬和牛科動物(包括各款式的牛、羊),石器使用者藉此取得肉肉和骨髓,可謂充分發揮石器的作用。動物未必是擊殺,也可能是撿屍取得。

據此判斷奧都萬最初的使用者,會用石器處理各種材料,不限於植物或動物。他們不只是熟練的石器匠,也是手巧的用戶。

-----廣告,請繼續往下閱讀-----
遠觀肯亞 Nyayanga 遺址。古人類活動時,這兒的環境應該更潮濕,足以讓河馬滾動。圖/參考資料4

石器與化石的演化史

製造與使用石器的人是誰?出土石器的遺址,不少沒有死人骨頭。Nyayanga 遺址倒是有化石,可是卻不是 Homo,而是 2 個「傍人」的牙齒。

這些名詞的關係有點複雜,先來解釋人的部分。傍人(Paranthropus)是何許人也?人類演化史上,300 到 400 萬年前是南猿(Australopithecus)的時代,傍人、Homo 應該都是南猿的衍生型號。

直立人、智人、尼安德塔人所屬的 Homo,和傍人、南猿是近親,都算是古人類;至於「人」是否包含傍人與南猿,看狀況。

再結合石器與年代的資訊,已知最早有 Homo 特徵的化石(無疑的「人」)為 280 萬年,最早的石器不是奧都萬,而是作工更簡陋的拉米關(Lomekwian),存在 330 萬年前的肯亞。所以最早的石器匠不是 Homo,想來也不意外。

-----廣告,請繼續往下閱讀-----

按照之前的資訊推敲,最早的拉米關石器早於 Homo,接著 Homo 距今 280 萬年誕生,260 萬年左右研發出奧都萬石器,看似井然有序。

可是 Nyayanga 遺址的年代十分曖昧,剛好卡在 Homo 最初誕生的階段。至今缺乏直接證據,證明那時已經有 Homo 存在,有的話卻也不意外,符合奧都萬最早製造者的時程。

然而,最早的奧都萬石器,卻與傍人化石一起出土,莫非最早的奧都萬是傍人手筆嗎?

傍人的牙齒。圖/參考資料4

傍人或 Homo,誰是製造工具的石器匠?

傍人的外貌更加粗壯,或許也有更猛的咬合力。以前推測傍人的適應主要在肉體和生理,Homo 則是製作工具的行為。此前缺乏明確證據,支持傍人也使用石器,所以這回即使傍人和石器一同出土,依然不敢認定傍人就是使用者。

-----廣告,請繼續往下閱讀-----

倘若某些南猿,已經摸索出最初的石器奧義,那麼身為南猿後裔的傍人也會操弄石頭,似乎沒那麼意外。

可是其他遺址也見到過,傍人和南猿與 Homo 住在附近;所以也可能是遺址當年同時住著沒有石器的傍人,以及使用石器的 Homo,後來卻只有傍人留下化石。總之,目前難以判斷誰是石器匠。

還有個黑暗的可能性:與石器一同出土的傍人,搞不好是被石器處理的對象?

古人類們的年代(橫軸)、飲食狀態(縱軸)。這回肯亞 Nyayanga 的化石是已知最早的傍人,和最早的 Homo 大略處於同一時期。圖/參考資料1

最早的傍人

我們對傍人的認識不多,這項研究儘管無法判斷傍人是否會使用石器,依然獲得重要的新知。

-----廣告,請繼續往下閱讀-----

傍人一度被歸類於南猿旗下,比較粗壯的南猿,後來才另立新屬 Paranthropus;para 意思是旁邊(beside 或 near),anthropus 是人。目前可分為 3 個物種,這項研究沒有斷言是哪個物種。

以前知道最早的傍人化石距今 260 萬年,出土於衣索比亞的 Omo Kibish,被歸類為衣索比亞傍人(Paranthropus aethiopicus)。

這項研究沒有特別討論,有趣的是,如果年代估計無誤,曾經於肯亞 Nyayanga 出沒的傍人極可能早於 260 萬年,那麼這就不只是最早的奧都萬石器,也是最早的傍人。距離最近的傍人化石 230 公里,也拓展了傍人的分佈範圍。

劃重點:

-----廣告,請繼續往下閱讀-----
  • 最早的傍人及奧都萬石器,在肯亞出土,年代超過 260 萬年,可能有 300 萬年。
  • 東非草原環境中,石器剛出現,用途就很廣。
  • 那時可能已經有 Homo 存在,但是石器與傍人一同出土,不確定誰是石器匠。

延伸閱讀

參考資料

  1. Plummer, T. W., Oliver, J. S., Finestone, E. M., Ditchfield, P. W., Bishop, L. C., Blumenthal, S. A., … & Potts, R. (2023). Expanded geographic distribution and dietary strategies of the earliest Oldowan hominins and Paranthropus. Science, 379(6632), 561-566.
  2. Stone Age discovery fuels mystery of who made early tools
  3. 2.9-million-year-old butchery site reopens case of who made first stone tools
  4. We found 2.9-million-year-old stone tools used to butcher ancient hippos – but likely not by our ancestors
  5. Did more than one ancient human relative use early stone tools?
  6. Ancient stone tools suggest early humans dined on hippo
  7. The “Robust” Australopiths
  8. de la Torre, I. (2019). Searching for the emergence of stone tool making in eastern Africa. Proceedings of the National Academy of Sciences, 116(24), 11567-11569.
  9. Harmand, S., Lewis, J. E., Feibel, C. S., Lepre, C. J., Prat, S., Lenoble, A., … & Roche, H. (2015). 3.3-million-year-old stone tools from Lomekwi 3, West Turkana, Kenya. Nature, 521(7552), 310-315.
  10. Villmoare, B., Kimbel, W. H., Seyoum, C., Campisano, C. J., DiMaggio, E. N., Rowan, J., … & Reed, K. E. (2015). Early Homo at 2.8 Ma from Ledi-Geraru, Afar, Ethiopia. Science, 347(6228), 1352-1355.

本文亦刊載於作者部落格《盲眼的尼安德塔石匠》暨其 facebook 同名專頁

寒波_96
193 篇文章 ・ 1066 位粉絲
生命科學碩士、文學與電影愛好者、戳樂黨員,主要興趣為演化,希望把好東西介紹給大家。部落格《盲眼的尼安德塔石器匠》、同名粉絲團《盲眼的尼安德塔石器匠》。

0

5
0

文字

分享

0
5
0
來當一日語音設計師——如何設計好聽的合成語音?
雅文兒童聽語文教基金會_96
・2023/03/31 ・3727字 ・閱讀時間約 7 分鐘

  • 文/邱彥哲|雅文基金會聽語科學研究中心 助理研究員

「Hey, Siri!」「OK, Google!」你曾經對手上的行動裝置說話嗎?你會要求他回答什麼呢?受限於目前的技術,你可能不會得到非常滿意的答案,但至少你會聽到一陣悅耳如同真人的語音吧!這項現今習以為常的技術,其實背後是由很多知識累積而成的。今天,讓我邀請你擔任一日「語音設計師」,從語音合成的技術開始,接著了解人類使用者的聽覺偏好,最後探索不同族群對聆聽合成語音的差異吧!

語音助理進駐現代人的日常生活。圖/freepik

語音合成(speech synthesis),是指以人工方式,製造出說話的聲音,可以理解為使機器裝置說出人話的技術。廣義來說,很多人也會把文字轉語音(Text to Speech,簡稱 TTS),含括在語音合成的範疇。

語音合成像樂高,但樂高有兩種

早在 1970 年代,人類就已經開始嘗試讓機器說話了。構思如何讓機器說話這件事,最直接的方式就是請真人錄一段聲音,然後在指定的時機播放。不過,面對複雜的語言情境,我們不可能錄下所有可能的回應 ; 而且若要這樣做,也實在太沒效率。幸好,借助電腦運算技術,可以讓人類向自動生成語音邁進一大步。合成的方法可以分成兩大類,分別是單元選取合成(Unit Selection Synthesis)及參數合成(Parametric Synthesis)[1]

單元選取合成這種方法,是將某個語言的語音成分分別以人聲錄製起來,再根據需要的目標語音進行組合。簡單來說,如果需要機器說發出「八」的語音,就必須單獨錄製「ㄅ」跟「ㄚ」。這個技術聽起來直觀方便,但也有缺點。就是事先必須建立一個龐大的語音資料庫,這個資料庫必須包含一個語言所有語音成分,此外,還必須錄下這些語音成分在所有情境下的變化,光想起來就令人有點頭痛。

-----廣告,請繼續往下閱讀-----

所以後者,參數合成,就顯得方便許多。這種方法,是直接將語音參數輸入電腦,讓電腦直接根據參數發出聲音,再組成語音。使用參數合成,就可以免去請人錄音的步驟,但直接使用電腦生成的語音,聽起來也會相對不自然。我們可以把這兩類方法想像成是在組合樂高,都是將語音成分一塊一塊組合起來,只是前者的樂高是自然材質(比如說木頭製),後者是人造材質(比如說塑膠)。

借助深度學習,電腦說話很自動

不過,無論是上述哪種方法,都還是需要不少的人工調校,才能使聲音逐步接近人類的語音。但還好,隨著電腦演算的進步,將深度學習(deep learning)運用在語音合成的領域,不但減少了人工成本,也大大提升的語音的擬人性。所謂深度學習,簡單來說就是一套模擬人類神經網絡的演算法。

使用這樣的演算法,設計者只需蒐集大量的語音資料,將資料「餵」給電腦,無須事先切分或分析,電腦便會自動學習其中的規律。如此一來,只要資料數量足夠龐大,電腦就可以自動產生符合自然規律且真實的語音。

但是,身為一位語音設計師,要進一步思考的是:「究竟要餵給電腦什麼呢?」這個問題又必須從使用者的角度來思考:「人類會偏好聆聽什麼樣的語音?」就像生產商品一樣,語音百百款,要能投其所好,才能讓使用者日日寸步不離,對吧!

-----廣告,請繼續往下閱讀-----

聆聽也要投其所好,性別頻率最重要

人類對不同性別及頻率有特殊的聆聽偏好。圖/freepik

關於合成語音的聆聽偏好,最先被討論的,是性別。雖然我們都知道機器沒有性別,但若希望他和人一樣跟你互動,投射性別是很自然的。不過有人就提出質疑:「為什麼我們的語音助理,都是女性的聲音呢?」美國西北大學梅迪爾傳播新聞整合行銷學院教授 Candy Lee 進行一項調查,測試了 8 種族裔的使用者,結果發現 64% 的人只偏好女性的聲音[2]

這樣看起來,預設為女性的聲音應該是沒問題的吧?不過,有人認為這是社會對「助理」的性別刻板印象所致;因為社會習慣女性作為「服務者」,所以在設計語音時,直覺地就挑選了女性聲音。雖然單就頻率方面,的確有研究指出,使用者確實是偏好頻率較高的合成語音[3],但若是一昧如此,也極有可能不斷複製性別偏見的印象[4]

有鑒於此,越來越多系統開始提供男性語音的選項。更甚者,哥本哈根研究團隊突發奇想,不以性別為選項,而是改以頻率作為調查標準。分析之後,他們得到一個最佳的頻率值──185 赫茲,設計出史上第一個無性別語音助理「Q」[5]。如此一來,青菜蘿蔔各有所好,聆聽的偏好也朝著多元共好的目標邁進!

聽得舒服,語速考量不能少

解決的性別與頻率的問題,還得注意甚麼呢?專門研究輔助溝通系統(Augmentative and Alternative Communication,簡稱 AAC)的專家想到了語速的問題。輔助溝通系統可以簡單理解成「溝通輔具」,是用以輔助溝通障礙者溝通的工具; 簡單如圖卡,複雜如電子溝通板,都算是其中一員。而像是電子溝通板這類,以螢幕顯示圖片,點擊後可以播放語音的輔具來說,合成語音是很關鍵的技術。

-----廣告,請繼續往下閱讀-----

這些溝通障礙專家想知道:「究竟什麼樣的語音速度,是最舒服的呢?」。

Sutton 與其研究團隊招募了 21 至 28 歲的年輕人與 61 至 79 歲的年長者,對合成語音進行語速評分[6]。語速的計算方式,採用每分鐘幾個字(Words per minute,簡稱 WPM)計算。他們將合成語音調整成不同的語速,範圍介於 120 到 250WPM 之間。結果發現,無論年輕人或年長者,偏好的語速都落在 150 到 200WPM 之間 ; 而年長者則是相對年輕人偏好較慢的語速。這樣的範圍,其實與過去研究提出的人類平均語速,相去不遠[7]

如果想知道不同語速聽起來感受如何,可以到合成語音軟體 Speechify[8]的網站試用,自行調整語速(以 WPM 計算),細細品味其中差異。或者,讓我為你朗讀,請聽示範(語速約 180WPM,內容為「我是彥哲,我是普通人。」)! 

可見,語音合成的技術雖是極為理性的領域,但若要設計出美妙的語音,對人類感性的理解,也絕對不能偏廢。

-----廣告,請繼續往下閱讀-----
圖/Pixabay

合成語音聆聽不易,考量族群差異最貼心

「所以,我只要想辦法把語音設計得很像人類就可以了吧?」你可能會這樣想,不過這裡頭還少了一個部分。現代社會提倡多元,客製化當道,每個人使用同個產品的狀況必然會有差異。

其實,即使是一般人,聆聽並理解合成語音是比自然語音更加困難的。Winters 及 Pisoni 發表的回顧研究指出:由於合成語音的清晰度普遍較差,因此聆聽者通常需要動用更多的認知資源(像是電腦需要動用較多記憶體),以及更多高層次的語言知識來彌補語音訊息的不完整[9]。如果對普通人來說是如此,對於某些特殊族群來說,想必有更加需要注意的地方。

比如說兒童。Mirenda 及 Beukelman 招募了成年人、10 至 12 歲以及 6 至 8 歲的兒童進行研究[10]。參與者的任務,是要在聽完自然語音及合成語音播放的八個詞彙之後,再將這八個詞彙回憶並說出來,回答無須按照順序。結果研究者發現,兩組兒童無論聆聽自然或合成語音,回憶詞彙的表現都比成人還差 ; 對於兩組兒童而言,記憶合成語音的表現又更不理想。

由此可知,兒童本身的記憶能力就較成年人弱,在聆聽合成語音時,可以說是是難上加難。

-----廣告,請繼續往下閱讀-----

另一個被探討的,是聽障族群。聽障族群最主要的困難,就在於聆聽。聆聽合成語音如果對聽常族群來說本來就比較困難,那對聽障族群應該是更加艱困的挑戰吧!Kangas 和 Allen 的研究[11]回答了這個問題。研究者請年長聽障者聆聽自然語音與合成語音,並請他們在聆聽後寫出聽到的單字。結果可想而知,聽障者確實在聆聽合成語音的部分表現得比較差。

看完上面的狀況,身為語音設計師的你,在設計語音的時候,是不是也應該從使用者的背景差異去調整你的語音呢?也許是調整語音的頻率,也許是調整語速,也可能,也可能有更多領域需要探索。唯有這樣,才能朝充滿人性又個人化的智慧語音邁進。

怎麼樣?沒想到要設計語音,希望機器說出一句話,背後涉及理性的技術與感性的考量,非常不容易吧!看完之後,你還是可以輕鬆地要求你的行動裝置說個笑話,唱首歌給你聽,自娛娛人;但也千萬別忘記,多留點心思,給這人類文明的結晶致上敬意。一日語音設計師,功成身退!

參考資料

  1. 詹姆士・弗拉霍斯。(2019)。從說話機器人到聊天機器人。聲控未來:引爆購物、搜尋、導航、語音助理的下一波兆元商機(孔令新譯,頁104-137)。商周出版。
  2. Marc Jacob.(2022/3/30). Medill Study Finds Preference for Female Voices and Local Accents. Northwestern Medill Local News Initiative.
  3. 顏宏旭,楊麗平,宋慧宏。(2020)。聽眾對語音合成導覽裝置聲音偏好之探討。戶外遊憩研究。33(4),83-107。
  4. West, M., Rebecca K., & Chew H.E. (2019). I’d Blush if I Could: Closing Gender Divides in Digital Skills Through Education.UNESCO & EQUALS Skills Coalition.
  5. GenderLess Voice. (2023/3/3) Meet Q [Web message].
  6. Sutton, B., King, J., Hux, K., & Beukelman, D. (1995). Younger and older adults’ rate performance when listening to synthetic speech. Augmentative and Alternative Communication, 11(3), 147-153.
  7. Walker, V. G. (1988). Durational Characteristics of Young Adults during Speaking and Reading Tasks. Folia Phoniatrica et Logopaedica, 40(1), 12–20.
  8. Speechify. (2023/3/3) Speechify.
  9. Winters, S. J., & Pisoni, D. B. (2004). Perception and comprehension of synthetic speech. Research on spoken language processing report, 26, 95-138.
  10. Mirenda, P. & Beukelman, D.R. (1987). A comparison of speech synthesis intelligibility with listeners from three age groups. Augmentative and Alternative Communication, 3, 120-128.
  11. Kangas, K.A. & Allen, G.D. (1990). Intelligibility of synthetic speech for normal-hearing and hearing impaired listeners. Journal of Speech and Hearing Disorders, 55, 751-755.
雅文兒童聽語文教基金會_96
56 篇文章 ・ 222 位粉絲
雅文基金會提供聽損兒早期療育服務,近年來更致力分享親子教養資訊、推動聽損兒童融合教育,並普及聽力保健知識,期盼在家庭、學校和社會埋下良善的種子,替聽損者營造更加友善的環境。