0

0
1

文字

分享

0
0
1

臉部超科學回春!光影、老化與比例對外觀的影響

MedPartner_96
・2016/09/16 ・4728字 ・閱讀時間約 9 分鐘 ・SR值 507 ・六年級

-----廣告,請繼續往下閱讀-----

大家有不小心把自己畫成白鼻心,或者是臥蠶畫成眼袋過嗎?有畫鼻影的時候有不小心把自己畫成阿凡達的納美人過嗎?原本就方方的臉有沒有好像覺得越畫越寬?相信很多人都有這樣的慘痛化妝經驗,特別是在新手期 XD

6997798116_6963bfc972_z
臉中白一線的白鼻心。圖/Tony Hara@flickr

之前在分享過一些有關解剖結構的文章,希望大家對這些知識更有掌握,可以把妝化得更好。其實化妝品 「cosmetics」是希臘文的「kosm tikos」,翻譯過來大概是「裝扮巧妙,使自己更具魅力」。字首的「kosmos」的意思,就是裝飾。既然要裝飾成「某個樣子」,那你心裡面就不可能「沒有某個樣子」。對多數人來說,「某個樣子」通常代表「更年輕」、「更有吸引力」。以現在人的標準來看,更有吸引力通常代表「更立體」、「更精緻」的五官比例。

所以今天我想分享的是:

 1. 光影如何影響人臉的視覺效果
2. 人類的臉部老化過程——比較年輕的臉跟老化的臉的差異
3. 符合東方美學概念的臉部比例

-----廣告,請繼續往下閱讀-----

如果要保養,也必須知道到底哪些是可逆的,哪些是不可逆的。看懂之後就不用亂花錢囉!

累了嗎,我們聽首歌吧!痾,不是啦,先來看一下影片~片長兩分多鐘,大家看個三十秒就可以停了。

光線的顏色與明暗對人臉視覺上的影響

https://www.youtube.com/watch?v=uqTuo2yQBXM

從這部影片,你可以清楚看到,不同顏色、不同角度的光,對人臉在視覺上會產生很大的影響。如果全都是強光,沒有明暗,就不會有立體感。你想想看,這不就是化妝在做的事情嗎?另外你也可以知道,為什麼在某些餐廳、某些店家,照鏡子照起來就會特別好看?這除了鏡子的原因以外,光線的顏色跟角度也都有差喔!!!下次如果不小心又沈浸在某個讓自己看起來很瘦的鏡子前,趕快回想一下這篇文章,醒醒吧阿宅,這一切都只是幻覺啊!

-----廣告,請繼續往下閱讀-----

人臉自然老化的過程

從一個小蘿莉,長成花樣年華的少女、再到輕熟女、然後熟透,然後過熟(誤),慢慢步入中老年的過程,到底是怎麼回事呢?我們來看一下這支影片,一分鐘帶你走過女人臉部的八十年。

https://www.youtube.com/watch?v=tTBlFC-oAnw

人的臉部老化是「全面性的」,從皮膚、皮下脂肪、肌肉到骨骼,都有各自老化的過程。

臉部皮膚的老化

2

皮膚從外到內有很多層次,我們就由外而內說明:

-----廣告,請繼續往下閱讀-----

皮膚變薄:老化過程中,膠原蛋白跟彈性纖維變性,結締組織也會流失,所以皮膚就會變薄。老人的皮膚常常一擦到就破,就是這個原因。

皮膚鬆弛:皮膚變薄加上重力的影響,臉部皮膚就會呈現鬆弛。

皮膚粗糙:表皮的角質層因為角化異常,就會導致皮膚粗糙。

乾燥:青春期腺體分泌旺盛,但老了就功能下降。皮脂腺和汗腺分泌不足,無法形成正常的皮脂膜,皮膚就會乾燥。

-----廣告,請繼續往下閱讀-----

黑斑:正常的黑色素小體會均勻分布。但如果色素調節異常,就會出現局部的黑色素增加,產生黑斑或曬斑。

白斑:有時候某些黑色素細胞會退化,就會在它負責的區域產生一點一點的白斑。

老人斑:表皮細胞不正常的角化,會產生脂漏性角化症或俗稱的老人斑。

老年性紫斑:老年人血管及周遭的膠原蛋白跟彈性蛋白都減少,所以微血管變得脆、硬,很容易一碰撞就出現一大片的出血。年紀越大就越容易出現!

-----廣告,請繼續往下閱讀-----

大家要注意的是,上面有些事情是你可以阻止的,例如防曬;但有些就幾乎難以預防,只能順其自然。有些廠商會隨便宣稱他的東西有療效,聽聽就算,不要浪費錢。

臉部脂肪的老化

3

臉部在老化的過程中,脂肪會流失,另外也會伴隨著軟組織一起下垂,所以逐漸就從一個倒三角的 V 臉,變成一個正三角形的下垂臉了。年輕的女生常常在哭自己有嬰兒肥,你不知道那是甜蜜的負荷啊!等你老了,該有肉的地方沒肉,肉都垂到不該有的地方你就欲哭無淚啊……。

臉部肌肉的老化:張力增加

4

有句玩笑話,什麼是老男人:就是該軟的都硬了,該硬的都軟了……該硬的不硬,不該硬的血管啊、攝護腺啊通通都硬了。但肌肉這件事情更是老天爺的玩笑,四肢的肌肉常會因為老化萎縮,但臉部的表情肌反而會因為老化而張力增加……,經年累月的拉扯加上過強的肌肉張力,就會出現很多表情紋路。像是抬頭紋啊、魚尾紋啊、法令紋啊、皺眉紋之類的,讓我忍不住想起這首歌啊:如果說一切就是天意,一切就是命運,終究……(透露年齡…)。

臉部骨質的老化

5

大家可能比較難想像,骨頭這麼硬的東西也會變?其實骨頭是「活的」,隨時都有「生骨細胞」在製造新的骨質,也隨時有「蝕骨細胞」在吃掉老化的骨質。老了之後,製造新骨的能力低於蝕骨的能力,就會慢慢看到骨質流失了。在臉部常可看到眉骨被吸收、眼眶骨更凹陷,下頷角更往下垂等現象。可以對照骨骼圖看:

-----廣告,請繼續往下閱讀-----

6

年輕的臉 VS 老化的臉

所以一張年輕的臉,基本上會是:

1. 皮膚緊實、平滑
2. 肌肉張力不過強,沒有皺紋
3. 輪廓呈現一個倒三角形(inverted triangle face)

整張臉也不是只有一個大的倒三角,你可以把它拆解很多個,把整張臉用很多個倒三角來設計 。例如把整個臉當一個大的倒三角,或者眼睛一區、嘴巴下巴一區之類的都可以。 總之臉上可以區分成很多三角,但一定是倒三角 ,絕對不能是正三角 !不然就是老的臉……。

近年也有人提出好看的臉是大小兩個心形:

-----廣告,請繼續往下閱讀-----

7

不管是哪種,照著這樣的輪廓去化妝,或者是作為保養、治療的目標方向就對了。所以接下來的目標,就是讓他趨近倒三角,或所謂大小雙心的結構!我們能做的,就是光影的明暗效果,或者是立體效果。亮的顏色就是顯大,暗的顏色就是顯小。越立體你看上去就是小,越平面你看上去就是大。 要讓他變寬,就讓他平面化發展 ;要讓他看起來窄,就讓他立體化發展 。

這有點像是一個三角做圖法,你可以在臉上取兩個不會動的點,例如兩邊的眉尾,然後選定一個第三點去動作。不管是化妝還是整形。

8

像是上面這張圖,左邊的女生下巴就短了一點點,不管是用拍照角度、化妝或是整形拉長了比例,就變更好看了。

所以最好看的臉就是又小又精緻又立體。 大家想想看喔,如果你臉白,就會顯大。所以要在螢幕上,又白、看起來又小,那就必定要有立體的五官。有沒有這種人呢?有一個歷史上很標準的正妹:

8+9
1956 年(左)和1978 年(右)的奧黛麗赫本。圖/wikihuffingtonpost

但這只是一個美的典型,別忘了美是有很多很多種的喔!而赫本當然也抵擋不了老化的力量,大家可以觀察其中的變化。

符合東方美學的臉部比例:三庭五眼和各種黃金比例

大家可能會想知道,符合東方美學的臉部比例是什麼樣子?其實也是有些客觀的分析標準,有興趣的朋友可以看隆鼻懶人包第一集,有更完整的角度介紹。但這邊就先讓大家看個最基本的三庭五眼圖。

11

記住,整型是非必要的,化妝、髮型、微整形、手術都是可能的選項,當然要花你比較多錢,或承擔比較多風險的,就一定要想清楚喔!

同場加映:視錯覺原理在化妝與整形的應用

講到化妝或整形,就不能不知道「視錯覺原理」。它可以分成由感覺器官引起的「生理錯視」,以及由心理原因導致的「認知錯視」。詳細的視錯覺成因跟機制可以講到很複雜,但這邊先簡單說,基本上視錯覺原理就是個愚蠢的「人類自行腦補的故事」。

好啦,也不能這麼片面把人類當作這麼愚蠢啦~人類的認知功能是有限的,必須在很短的時間做出判斷,然後把認知功能專注放在重要的事情上,所以對於很多事情我們會傾向直接腦補……所以你就會出現錯覺。視錯覺廣泛出現在我們生活中,這邊我們舉幾個可能用得上的例子吧~

案例一:A 和 B 兩個長方形,哪個比較長?

12

其實這是兩個一模一樣的長方形。人在看兩個相同的長方形時,會傾向於把 A,擺成豎起來的這個看得更修長。所以可以在化妝時或穿搭時,設計一些豎長的線條,都會顯得比較修長。這道理很簡單,叫胖子穿橫條紋就是個悲劇不是嗎……。

案例二

13

A 和 B 其實是同一個人。只要把其中一部分地方遮住,只露出剩下的部分,人們就會腦補被遮住的畫面。所以不管在穿衣服還是化妝還是設計髮型的的時候,想辦法露出自己最瘦的地方,或者遮住自己最胖的地方,或者顯露出五官最立體的部分,遮住比較平或角度不好看的部分,大家就會把你腦補成又瘦又五官立體的正妹惹(無誤)。

案例三:這兩個女孩哪個比較高?

14

答案是一樣高。但大家都覺得戴帽子的那個高。這就是「視覺動線」的作用,這是一個利用「顯眼的視覺焦點」,大家就會把視覺動線往上拉,或者是往下拉,這個戴帽子的女孩就是因為你的視覺動線上移所以看起來高。當然也可以往左拉,或往右拉(但這類運用較少)。例如有個寬臉妹子,又同時帶了很亮眼的耳環,你在看她的時候,視線跟著耳環左右移動,恩,那就悲劇惹。所以如果你的臉部比例不是標準的三庭五眼,都可以利用這招,不管是用帽子、髮型、首飾等小心機做出效果喔~

案例四:哪條線比較長?

15

最後一定要介紹一下上港有名聲,下港有出名的「萊依爾錯視」。三根線明明一樣長,但在箭頭的作用下,B 顯得最短,A 顯得最長。

這個可以解釋非常多事情!!!在穿搭上這就是V領衫可以顯得臉小的原理。在臉型上,這就是 V 臉為什麼看起來臉小的原理。活用這個錯視,你可以搞出一大堆變化!一統自拍界指日可待啊哈哈哈哈哈!

今天這篇文章是希望讓大家知道,化妝跟整型都是可以很科學、很醫學的。有更多的知識,就可以用更低的成本,達到更好的效果。不會因為不懂成分,結果買了一堆可怕的產品毀掉自己的臉,如果要整形也不會因為搞不清楚狀況,接受了一個根本不適合你的手術。

另外也希望大家正確認知「老化」這件事情,但不是要大家害怕老化,然後趕快去亂買抗老產品。知道什麼是老化、理解老化的機制,接下來我們會慢慢找機會補上其他相關機制,告訴大家哪些對預防老化是「實證有效的」,哪些是「持續爭議中的」,哪些是「根本沒效不要再被騙的」。錢跟時間是你最需要掌控的。把這兩樣東西運用好,人生就會有餘裕。但要把錢跟時間運用好,其實是需要很多正確的知識啊!!!

所以拜託千萬不要隨便放棄治療,或者是手滑亂買東西啊……。腦袋空空,錢包就會空空,這是不變的真理啦!!!科學其實沒這麼難,希望大家卸下心防,讓我們幫助你輕鬆學習,然後實際應用在日常生活中~

看完這篇文如果覺得有幫助,趕緊用底下按鍵分享給所有好朋友吧!不傳的沒朋友啊啊!(不夠要好的就不用傳了,認真。因為化妝或整形就是一種競爭,如果大家都超正,就顯不出你的正了…科科)

助人省錢,功德無量,阿彌陀佛~~~

編按:愛美是每個人的天性,不過對你而言光是看滿架的化妝品、保養品,各種醫美產品就令你眼花撩亂,更別說還有玻尿酸、膠原蛋白、類固醇這些有聽沒有懂的名詞來搗亂嗎?如果你想要聰明的美,不想要被各種不實廣告唬得團團轉,那麼泛科學這位合作夥伴 MedPartner 美的好朋友,就是你我的好朋友。

本文轉載自MedPartner 美的好朋友

文章難易度
MedPartner_96
49 篇文章 ・ 17 位粉絲
一位醫師用一年時間和100萬,夢想用正確醫美和保養知識扭轉亂象的過程。 Med,是Medicine,醫學的縮解。Med 唸起來也是「美的」。我們希望用醫學專業,分享更多美的知識。Partner則是我們對彼此關係的想像。我們認為醫師和求診者不只是醫病關係,更應該是夥伴關係。 如果您也認同我們的理想,歡迎和我們一起傳播更多正確的醫美知識。 我們的內容製作,完全由MedPartner專業醫療團隊負責,拒絕任何業配。

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
文章難易度

討論功能關閉中。

賴昭正_96
43 篇文章 ・ 56 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

3

6
0

文字

分享

3
6
0
Deepfake 辨偽技術如何在魔高一尺時,能道高一丈呢?——成大統計所許志仲專訪
A編編
・2022/01/26 ・3499字 ・閱讀時間約 7 分鐘

2021年末,小玉的「Deepfake 換臉事件」讓大眾正視 Deepfake 技術的濫用問題。  Deepfake 發展至今不只有造假技術在進步,辨偽也是:目前任職於成大統計所的許志仲老師,從 2018 年開始便在這個主題中專研,並於 2020 年發表相關研究結果,該篇文章起今已有超過 50 次的引用次數。「以這篇論文發表的期刊影響指數(Impact Factor,簡稱IF值)來說,這個引用數相對來說是高的,這代表 Deepfake 辨偽的議題開始變得重要,但研究的人可能沒那麼多。」

許志仲坦言,自己 2018 年研究 Deepfake 辨偽時,Deepfake 影片品質並沒有特別好。沒想到短短兩三年的時間,Deepfake 的效果就已經好到可能會造成問題了。

雙面刃的 Deepfake

Deepfake 技術起初是希望能藉由電腦產生各種不同的逼真圖片或影片,來因應特效製作或老照片修復之類的工作,而要產生逼真圖片或影片,有許多不同的方法都能達成這個目的,目前 Deepfake 最常使用的方法為 2014 年提出的「生成對抗網路(Generative Adversarial Network, 簡稱 GAN)」,透過生成網路與判別網路的對抗,產生逼真的圖片或影片,因此說到 DeepFake,通常都會說起 GAN。

「我們會說 Deepfake 就是 GAN,是因為就目前生成技術還是以 GAN 最好,當然也有新的方法正在發展,所以未來未必還是以 GAN 作為主體,可能用別的方法偽造,也能做得很漂亮。」

-----廣告,請繼續往下閱讀-----

許志仲也表示,Deepfake 的發展目標是正面的,技術本身是中立的,但使用者怎麼使用這項技術,就成了重要問題。而在不能確保使用者心態的情況下,辨偽技術成了這項技術的最後一道防線。而 Deepfake 辨識的主要問題,可以分為偏向研究的「偽造特徵不固定」,以及偏向實務面的「辨偽系統的使用情境差異」兩個面向。

Deepfake 辨識的研究困難:偽造特徵不固定

現在已經有可以辨識貓狗、車牌等物體的影像辨識系統,這些辨識系統也相當成熟可靠,直覺來說,要做出一套辨識 Deepfake 的辨識系統,應該也不會太困難吧?

但實際上卻並非如此,過往辨識系統的做法是抓取容易辨別的特徵,例如貓與狗兩者在形態上就有明顯的差異,只要給電腦夠多的訓練資料,就能有一組精確區分貓與狗的判別式,且能用到各種需要分辨貓與狗的情況下。

貓跟狗的形態差異很大,所以電腦能輕易辨別這兩種物種。圖/envato elements

先不談分辨人臉真假,就人臉辨識本身來說,就是個值得研究的問題,每個人的臉都長得差不多,差異在於五官的相對位置、形狀或大小有微小的差異,這使人臉辨識本身就難有通則可以去分辨。而不同方法生成相似的 Deepfake 圖片,並不一定具有相同的偽造特徵,從人臉特徵到偽造特徵都不固定,使得 Deepfake 辨識具有一定的困難度。

-----廣告,請繼續往下閱讀-----

此外,即便用同一種方法製作同樣的 Deepfake 圖片,也會因為當初給的資料不同,使得偽造特徵出現差異,這讓「一組判別式就能判斷是否為 Deepfake」成為近乎不可能實現的夢。

也許,偽造特徵根本不在人臉上!?

面對 Deepfake 辨識的棘手問題,許志仲說:「要辨識的特徵太多元。我們覺得倒不如去尋找有什麼線索是 GAN 一致會產生的,這線索也許是我們眼睛看不到的,但是電腦可以透過學習的方式去挖掘,所以我就用了這種學習機制去抓出,會不會大部分的這種生成系統,都可能有共同的瑕疵。」

一張 Deepfake 照片並不只有人臉與五官,也包含了背景。而許志仲的論文指出,Deepfake 的偽造特徵,經常出現在背景,或是背景與人臉的交界處:

「臉通常都合成的很漂亮,但是背景跟臉的交界處會不自然。通常在髮絲的地方,髮絲的地方會糊掉這是一種,或是眉毛或者是額頭中的髮線也會有明顯差異。另外就是背景,會明顯看不出背景是什麼東西。大家都忽略看這裡(背景)很正常,而實驗結果也確實看到這些部分具有相對好的辨識度。」

-----廣告,請繼續往下閱讀-----
使用 GAN 生成的 Deepfake 人臉。圖/This Person Does Not Exist

然而,即便該篇論文是近期發布的,許志仲也不敢肯定這套辨識方式是否能套用在目前的狀況下,他表示目前每半年,GAN 生成的 Deepfake 影像的逼真度,就會有顯著的突破,且沒有消退的趨勢。

Deepfake 辨識的實務困難:辨偽系統的使用情境差異

在實務上,許志仲認為目前還有更為棘手的問題需要解決,那就是辨偽系統的使用情境差異。以一段 Deepfake 影片上傳 Youtube 平台為例,上傳的時候 YouTube 就會先對影片進行壓縮,這時原有的 Deepfake 偽造特徵很可能會因為壓縮而被破壞,許志仲解釋:「有些人會故意加上一些雜訊、加一些後處理,比方說整個畫面做類似美肌之類的處理,這些都會破壞掉偽造的線索,我們發現這些狀況十分常見,而且很難克服。這也是為什麼現在幾乎沒有軟體或網站,提供 Deepfake 辨識服務。」

DeepFake 的歐巴馬與演員的解析度就不同。

在實驗室裡,我們可以拿到 GAN 生成的原始影像去做分析,但在網路世界裡,每一個影像都可能像上述的情況一樣,做了各種後處理才放到網路上,就算現在有研究指出某種辨認方式是有效的,也未必真的能應對網路上的複雜情況。

許志仲表示,目前看到有希望突破壓縮這個問題的辨認方式,是去抓人臉在一段影片中的五官變化是否足夠自然,這個線索可以克服壓縮的一點點問題,因爲是藉由五官相對位置的變化來偵測,這就跟壓縮沒太大關係。但正如前面提到的,人臉辨識是困難的,人臉的五官定位本身就無法做到精準,真要使用這套方法辨識 Deepfake,還需要更多研究來確認可行性。

-----廣告,請繼續往下閱讀-----

也有研究者認為 GAN 理論雖然看似完美無瑕,但在產出 Deepfake 過程中仍可能會出現某些關鍵操作,只要藉由偵測畫面中是否有經歷這些操作,就能間接推測這個畫面是否為 Deepfake,不過這個做法的缺點也很明顯,那就是這些關鍵操作,也很可能只是正常的影片後製造成的,並造成不是 Deepfake 的影像也被歸類到 Deepfake 中。

情境逐個突破,讓研究能落地使用

說到這裡,許志仲語重心長地說:「我們研究做了這麼多偵測 Deepfake 的方法,但都不一定能在真實世界使用,這讓我非常意外,而上述的這些情境,也只是冰山一角。」

其實大家都在研究差不多的特徵,像是五官的落差,說話的時候嘴巴的動態變化會比較小或模糊之類的,但這些特徵面在真實的使用情境中,還能有多少辨識度,就真的是未知數。考量到真實情境的複雜度,目前許志仲認為逐個突破不同的情境下它們適合的辨偽方式,才是比較實實際的。

「我們必須先確認好問題是正確的,才能找到正確的答案。」許志仲說,要在實驗室裡做出一套數據漂亮的辨識系統並不困難,但要做出實際能用的辨識系統卻非常不簡單。

-----廣告,請繼續往下閱讀-----

許志仲也嘗試將自己的研究成果運用在實際情境中,但面對製作公司精心製作的 Deepfake 影片,許志仲換了好幾套模型,也只有一套能判別出來,也呼應了「使用情境差異」才是辨識 Deepfake 無法落地的最大問題。

辨識系統在實驗室中可以使用、但在現實生活中卻不一定。圖/envato elements

各界都在防範 Deepfake 影響生活

GAN 要能生成以假亂真的 Deepfake 圖像,必須建構在有訓練完善的生成模型上,而一個訓練完善的生成模型,並不是隨便餵幾筆資料給 GAN 就會跑出來的,必須要有足夠算力的電腦,配合大量的資料才能完成。除了像 Google 或 Facebook 這種規模的公司有能力製作外,也只有部分研究單位,能做出這種以假亂真的生成模型。

許志仲說:「由於 Deepfake 對社會的影響很大,現在他們都只公開自己的程式碼,但不會公開自己的模型,主要就是怕模型被拿去幹壞事。」許志仲也坦承,對於辨偽技術的研究來說,目前的狀況是非常不利的,這代表研究者必須自己用程式碼生出不那麼精良的模型,來製作 Deepfake 圖片測試。

面對未來 Deepfake 是否會無法辨別,許志仲表示就影像上來說,這件事情是做得到的,總會有方法做出不被任何辨識系統偵測,堪稱完美的 Deepfake 影像。但身為防禦方的我們,並不是只能靠圖片辨識真偽,上傳的使用者、社群平台的 meta-data,這些能標示來源的訊息,都可能是我們辨識這部影片是否為 Deepfake 的線索。

-----廣告,請繼續往下閱讀-----
影片的上傳者、發布的社群平台等等,都可能是我們辨識這部影片是否為 DeepFake 的線索。圖/envato elements

面對持續進化,仍看不見消退的 Deepfake 技術,許志仲也希望未來能有更多人一同加入 Deepfake 辨偽的研究行列,針對 Deepfake 辨偽系統的使用情境,我們還有非常多的問題等著被解答。

所有討論 3