0

0
0

文字

分享

0
0
0

液晶「肥皂」泡的振盪現象

活躍星系核_96
・2012/11/30 ・1334字 ・閱讀時間約 2 分鐘 ・SR值 560 ・八年級

-----廣告,請繼續往下閱讀-----

文 / 梁欣伶 (德國美因茨大學有機化學研究所博士生)

高速攝影鏡頭下,人們能捕捉稍縱即逝的瞬間、在日常的現象裡分辨許多更細微的動態行為。吹泡泡是孩子們喜歡的遊戲,脆弱的泡泡在慢速影片裡卻像具有韌性的彈簧。孩子們會從浸過泡泡水的圓框先吹出一個拉長的半弧面泡泡(圖1),這個半弧面泡泡最終會脫離圓框、形狀從拉長的棒狀模樣經過一陣抖動轉變成近完美的球形泡泡。


圖1. 吹泡泡的過程

肥皂泡其實是一層水在空氣中被肥皂分子保護著(泡泡水裡肥皂分子約只占3~7%),比起喜歡空氣,水分子更喜歡與自己的同伴靠在一起,所以在空氣中水會盡量讓自己形成球面,因為球面能讓最少的水分子與空氣接觸*達到穩定的最低能量狀態—此即所謂界面張力因素。從拉長的棒狀到球形的轉變過程中,那一陣的振盪過程即是泡泡在進行能量釋放。

-----廣告,請繼續往下閱讀-----

最近有一則研究比較近晶相(smectic)液晶泡泡與普通的肥皂泡形成時的動態行為,自由浮動的泡泡由慢速拉開的圓柱狀薄膜(圖2k)從中央斷裂後得到的衛星泡泡(satellite bubbles),整個過程由高速攝影機(約50000 fps)拍攝,最後進行影像分析;其中微米級的泡泡在普通實驗室完成,而釐米級泡泡在重力下容易在實驗完成前墜落,因此是在拋物線飛行上的失重過程中完成。

圖2. a-e) 近晶相液晶泡泡自釋放後的形狀改變過程

f-i)普通肥皂泡泡的振盪過程 k) 泡泡的製造過程

(途中數字代表泡泡自釋放後經過的時間 ,單位微秒)

-----廣告,請繼續往下閱讀-----

研究結果顯示在微米級體積下,普通泡泡在釋放後即開始進行振盪,而近晶相泡泡需要一段較長時間縮小表面積(過阻尼現象)至最後近似球形時才進行微小震幅的振盪。在泡泡表面積縮小的過程中,泡泡厚度也會相對增厚,相較於肥皂泡泡中的水與肥皂分子可以自由游動改變泡泡厚度,近晶相液晶因具有如樹輪蛋糕般的層狀排列(圖3),液晶分子需「被迫地」進行重新排列以維持液晶相層列形式。在液晶分子想要縮小表面積,又不想要重新排列的矛盾中,抑制了泡泡的振盪。


圖3. 近晶相A(左),近晶相C(右)

在連續過程中,液晶分子傾向進行區域性的分子層(近晶層)增厚,而非整體性的層數調整,因此在釐米級泡泡中可以明顯看到許多不同層數的「近晶島」(smectic islands, 圖4)。此研究使用近晶相C (smectic C)的液晶材料,在此液晶相中分子在層列中呈現某個角度的傾斜,在最終微小震幅的振盪 中這種性質使分子不需重新排列,而僅需微幅調整傾斜角度便可微幅改變分子層厚度。


圖4. 「近晶島」的顯微鏡圖(泡泡直徑0.57 cm)與示意圖

-----廣告,請繼續往下閱讀-----

液晶其實不只是關於顯示器,許多物質在特定的情況下都會呈現液晶相—即分子展現有序的排列 (由濃度或溫度的改變而誘發)—例如常見的肥皂泡泡中肥皂分子整齊排列於水層的表面。

有趣的是,「smectic」這個字源於希臘文的「肥皂」(smēktikos, 來自“清潔”smēchein), 而事實上在濃稠的肥皂液底部的確可以發現層狀的液晶結構,所以這篇真是名符其實的「肥皂泡」研究!

資料來源:

  • 原文論文: Dynamics of freely floating smectic bubbles, K. May et al. EPL, 100 (2012) 16003; DOI:10.1209/0295-5075/100/16003
  • 原文影片
  • 圖2與圖4圖片來自原始論文, 圖3來自wikipedia
文章難易度
活躍星系核_96
752 篇文章 ・ 126 位粉絲
活躍星系核(active galactic nucleus, AGN)是一類中央核區活動性很強的河外星系。這些星系比普通星系活躍,在從無線電波到伽瑪射線的全波段裡都發出很強的電磁輻射。 本帳號發表來自各方的投稿。附有資料出處的科學好文,都歡迎你來投稿喔。 Email: contact@pansci.asia

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

-----廣告,請繼續往下閱讀-----

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
文章難易度

討論功能關閉中。

賴昭正_96
43 篇文章 ・ 56 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

0

5
1

文字

分享

0
5
1
液晶溫控纖維:捲窗簾、撐乳房、擁抱狗、掀燈罩
胡中行_96
・2023/11/20 ・2772字 ・閱讀時間約 5 分鐘

「教授」趴在辦公室的地板上,百無聊賴。材料科學家、互動設計師、工匠與工藝研究人員,整日於麻省理工學院媒體實驗室(MIT Media Lab),忙進忙出,沒空搭理。作為論文第一作者Jack Forman的愛犬,身兼創作謬思,「教授」可能從沒想過,自己終將獲邀貢獻學術,並且榮登致謝名單。[1]

第一作者的愛犬「教授」。圖/參考資料1,Figure 15a(CC BY 4.0

FibeRobo

「教授」備受冷落的這段時日,研究團隊一直忙於開發織物纖維:穿戴手套、實驗袍和護目鏡,隔著通風櫃,以液晶元(mesogen)為主要原料,適量加入能感光、增加黏性、降低驅動溫度,以及延長有效期限等的各種化學物質。然後,將調製好的液晶彈性體(liquid crystal elastomer;LCE),灌進精心設計的機器。利用液晶分子在常溫下整齊排列,遇熱就亂了陣腳,導致收縮的特性,生產出來的FibeRobo纖維,長度能為溫度所控制。製作步驟及機器各部位的功能,大致如下:[1]

左二為FibeRobo機器示意圖,最右是實體。圖/參考資料1,Figure 3(CC BY 4.0
  1. 可調控溫度的針筒幫浦,將原料加溫至約莫34°C,降低其黏性後,推擠出來。(圖片:Step 1的上半段。)[1]
  2. 紫外線照射,使纖維稍微硬化,避免蜷曲。(圖片:Step 1的下半段。)機器外圍的黃色壓克力板,能隔絕99%的紫外線,保護使用者。透過調光器,則可依需求適度調整光線強度。避免光線太弱,使纖維斷掉;或者是光線太強,而結塊並堵塞針筒的開口。[1]
  3. 鑷子夾住纖維兩端,把它拉得又直又細,再沾點礦物油,比較容易舒展。(圖片:Step 2。)[1]
  4. 經過滑輪的纖維,於緊拉的張力下,再照一次紫外線,加強硬化。(圖片:Step 3。)滑輪轉動的速度愈快,纖維就愈細。[1]
  5. 纖維被捲到機器最頂端的線軸上。(圖片:Step 4。)[1]
  6. 從線軸上取下纖維,撒點滑石粉,降低摩擦力,方便以後用機器紡織。等布料完成,再以溫熱的肥皂水,洗去滑石粉。[1]

通電與收縮

FibeRobo纖維搭配別種材料,可以創造不同的效果。然而傳統多股對絞的作法,會扭曲FibeRobo,使它收縮的特質變得難以預測。於是,研究團隊改將FibeRobo置於中央,在外面纏繞其他材料。比方說,拿以蠶絲包覆銅芯的利茲線(litz wire)來捆它。銅的電阻低,升溫快,能迅速使FibeRobo遇熱收縮。FibeRobo與利茲線合體後,接上2.5安培、8.5伏特的電,8秒即縮短37%;斷電30秒,則又恢復原狀。不過,這種混合纖維傾向堆成一團,不適用於針織、紡織與刺繡。研究團隊建議,最好分開製作,再搭配使用。[1]

a. & b. 不同材質的線,纏在一起。FibeRobo纖維與利茲線合體:c. 沒通電;d. 通電收縮。圖/參考資料1,Figure 5(CC BY 4.0

另外,他們也嘗試用導電塗料浸染纖維。如同調製LCE原料時,身穿防護衣著,隔著通風櫃,先將FibeRobo泡入含有重量百分濃度7%碳黑(carbon black)的甲苯(toluene)溶液裡。8小時後取出,置於80°C的烤箱中,烘烤1個鐘頭。如此一來,FibeRobo纖維就能通電,其電阻會跟著長度的伸縮變化。拉長變細的時候,電阻較高。[1]

-----廣告,請繼續往下閱讀-----

成品展示

研究團隊用FibeRobo纖維跟其他材料,做了些模型和成品,來展示實際用途。以下是其中幾個例子:[1]

  • FibeRoBra運動胸罩:當體溫隨運動逐漸上升,FibeRoBra便開始收縮,給予乳房無鋼圈、零負擔的支持。體溫下降後,布料又回到放鬆的狀態。[1]
圖/參考資料1,Figure 8(Edited;CC BY 4.0
  • FibeRoGlow燈具:開燈後升高的溫度,令燈罩緩緩上捲,彷彿打開花瓣。全程費時,大約5分鐘。[1]
圖/參考資料1,Figure 9(CC BY 4.0
  • ShadeRobo窗簾:窗簾不該因為陽光強烈,氣溫上升,就自動捲起來。因此,驅動此窗簾所需的溫度,被設計得比較高。布料只有在上面的利茲線通電時,才會有反應。4伏特、2.5安培的電,得花2分鐘,才能將這個5 x 5公分的小窗簾捲好。冷卻1分鐘後,又會完全攤平。[1]
圖/參考資料1,Figure 12CC BY 4.0
  • FurbeRobo遙控狗背心:論文的第一作者Jack Forman,為他的愛犬「教授」,織了一件小背心。本文開頭的那張照片,即是牠的定裝照。如果寵物在辦公室悲鳴,於實驗室忙碌的主人,就可以透過藍芽,啟動背心上的控制器。此時,連接12伏特、2.5安培電池利茲線,會通電並發熱,造成驅動溫度不高的布料,輕微收縮。就像給狗溫暖的擁抱,減輕牠的分離焦慮(separation anxiety)。不過,基於動物實驗倫理等因素,後來示範布料收縮的照片,都是穿在布偶上拍攝,「教授」再次被晾在一旁。[1]
圖/參考資料1,Figure 15(CC BY 4.0

成本與環保

2023年麻省理工學院的團隊,在美國計算機協會(Association of Computing Machinery)主辦的使用者介面軟體與技術(User Interface Software and Technology)研討會上,發表了這篇介紹FibeRobo的論文。研究團隊認為,他們的成果具有商業化的潛力。畢竟跟雷同的技術比起來,製作FibeRobo的成本相對低廉:機器的針筒幫浦約美金250元;裝滿5、10、20或30毫升原料的針筒,每個至多4元;而生產直徑0.5mm的纖維,每公尺約0.2元。[1]單人操作單機,一天或一個下午就能產出750公尺的纖維;[1, 2]亦有報導指稱是每日1公里。[3, 4]不過,FibeRobo不可回收,儘管某些新興LCE纖維可生物分解,有時搭配的導電材質,仍是廢料處理的阻礙。因此,在這方面還有改善的空間。[1]

麻省理工學院媒體實驗室的FibeRobo介紹影片。影/參考資料2

  

參考資料

  1. Forman J, Afsar OK, Nicita S, et al. (2023) ‘FibeRobo: Fabricating 4D Fiber Interfaces by Continuous Drawing of Temperature Tunable Liquid Crystal Elastomers’. UIST ’23: Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology, 9, pp. 1 – 17.
  2. MIT Media Lab. (27 OCT 2023) ‘FibeRobo: Powerful Body-Temperature Morphing Fibers’. YouTube.
  3. Paul A. (26 OCT 2023) ‘This liquid crystal fabric is ‘smart’ enough to adapt to the weather’. Popular Science.
  4. Global Update. (29 OCT 2023) ‘New Liquid Crystal Elastomer Fiber Makes Shape Shifting Fabrics a Reality – FibeRobo’. YouTube.
胡中行_96
169 篇文章 ・ 65 位粉絲
曾任澳洲臨床試驗研究護理師,以及臺、澳劇場工作者。 西澳大學護理碩士、國立台北藝術大學戲劇學士(主修編劇)。邀稿請洽臉書「荒誕遊牧」,謝謝。

0

5
0

文字

分享

0
5
0
恭請德前總理梅克爾示範「泡泡認屍法」
胡中行_96
・2023/08/03 ・1414字 ・閱讀時間約 2 分鐘

由德、日鑑識專家組成的研究團隊,於 2021 年的《國際法醫期刊》(International Journal of Legal Medicine)上,說他們採用網路流傳的偽裸照修圖技巧,設計出比較不嚇人的「泡泡認屍法」(the “bubbling” procedure)。然後順帶奉上一張照片,以時任德國總理的梅克爾(Angela D. Merkel)女士,作為範例。[1]

被「泡泡」埋沒的前德國總理梅克爾女士。圖/參考資料 1,Figure 1a(CC BY-SA 4.0)

認屍

某些命案發生後,家屬必須前往停屍間,或是透過照片指認死者身份。屍體可能事先經過重建或防腐處理,並且在法醫動刀解剖前進行。最好未卸妝,也不取下首飾,完整保留生前的打扮。儘管這個鑑識程序有時的確無法避免,但是其失誤率高達 50%,而且會造成家屬的心理衝擊。若是遇到不知該找誰認領的無名屍,媒體還得四處散佈照片,觸及的人數勢必更多。研究團隊於是以移除創傷影像為目的,開發新的認屍方式。[1]

知覺填補

假設這裡有個電子圖檔,畫面上主角穿著泳裝之類的清涼衣著。首先,以常見的影像編輯軟體,例如: Photoshop、Paintshop 或 GIMP,開啟檔案。接著,用圓圈框選髮膚暴露處,並刪除衣物等剩餘區塊,就會得到一張狀似被泡泡網覆蓋的照片。此時,觀者會因為知覺填補(perceptual filling-in)機制,無視消失的部份,自動把影像腦補成裸照。根據該論文的說法,上述居心不良的修圖技巧,在網路論壇上相當風行。且不論研究團隊平常都在逛什麼網站,而如此熟悉這種不入流的勾當;他們想說的是,同樣的招數可以輔助認屍。[1]

人物照 b 經過「泡泡」處理,變成偽裸照圖 c。圖/參考資料 1,Figure 1 b & c(CC BY 4.0)

泡泡認屍照

現在把編輯的影像主角,從活人改為死者。先用大泡泡選取無創傷的廣大面積,再以小泡泡保存細節,並塗去其他部位。過程中,盡可能留下眼、鼻、耳和髮線等特徵。等能蓋的都蓋掉了,如果剩餘的區域,有屍斑、瘀青、腐化等情形,看了還是怵目驚心,那就降低整體畫面的彩度,或者套用灰階效果。[1]

-----廣告,請繼續往下閱讀-----
蓋上「泡泡」後,再進行灰階處理。圖/參考資料 1,Figure 2 c & d(CC BY 4.0)

泡泡辨識實驗

為了瞭解辨識的準確度,研究團隊在德國洪堡(Homburg)及匈牙利布達佩斯(Budapest),分別招募 38 與 15 名學生。請這些為數不多的受試者,指認經過「泡泡」處理的 10 張照片。裏頭可能出現的名人,包括:德國的球星 Lothar Matthäus、主持人 Inka Bause、超模 Heidi Klum 和政治人物 Frauke Petry;歐盟執委會主席 Ursula von der Leyen、匈牙利總理 Viktor Orbán、瑞典環保倡議人士 Greta Thunberg、教宗方濟各;以及演藝明星李小龍、Tom Cruise 與 Rihanna。另外,學生認識的教師跟絕對沒見過的陌生人,也各有一張,作為對照。全部辨識完後,受試者會看到沒有「泡泡」的版本,確定是否真的不知道某人。[1]

實驗結果顯示,這些學生認得 72.1% 的人物;而其中 66.8% 的照片,蓋上「泡泡」後,依然能被準確指認。研究團隊頗滿意此成功率,並覺得這個方法簡單、經濟又快速。不過,死者的臉部創傷若是太大,就不適合以「泡泡」遮掩,畢竟觀者腦補的能力有其極限。在那種情況下,他們建議改採臉部重建等其他繪圖技術。[1]

  

參考資料

  1. Potente S, Ramsthaler F, Kettner M, et al. (2021) ‘Application of the “bubbling” procedure to dead body portraits in forensic identification’. International Journal of Legal Medicine, 135, 1655–1659.