1

5
0

文字

分享

1
5
0

濫用 Deepfake 製作換臉影片,有哪些法律責任?

法律白話文運動_96
・2022/01/25 ・5284字 ・閱讀時間約 11 分鐘

  • 作者:黃伊平/執業律師,台北大學法學碩士

編按:在出現Deepfake之後,網路世界進入了「眼見不為憑」的年代。

本次泛科學和法律白話文合作策畫「Deepfake 專題」,從Deepfake 技術與辨偽技術、到法律如何因應。科技在走,社會和法律該如何跟上、甚至超前部署呢?一起來全方位解析 Deepfake 吧!

網紅小玉涉嫌利用人工智能 AI「Deepfake」(深度造假)技術,把多位公眾人物的臉部圖像移花接木到色情影片的主角身上,重製成「換臉影片」,並成立「台灣網紅挖面」社群,供人付費觀看,以獲取不法利益。被害人數眾多,其中不乏藝人、政治人物、知名網紅等。

而未經當事人同意,製作「換臉」的影片,這樣的行為會觸犯那些法律呢?

換臉影片觸犯《刑法》哪些罪名?

換臉影片屬於新型的數位性犯罪,在台灣還沒有處罰前例,目前大多認為可能會涉犯《刑法》的「散布猥褻罪物品罪」和「妨害名譽罪」。

「散布猥褻物品罪」包括哪些具體行為?

首先,刑法處罰「散布猥褻物品」的行為,依照實務見解是指:「客觀上足以刺激或滿足性慾,內容可與性器官、性行為及性文化的描繪與論述聯結,且引起一般人羞恥或厭惡感而侵害性的道德感情,有礙於社會風化的狀態」。

具體來說,「Deepfake」換臉影片的劇情,如果含有「暴力、性虐待或人獸性交」的情節,或雖然無關「暴力、性虐待或人獸性交」,但有引起一般人羞恥的性器官裸露、性行為的內容,且缺乏適當的安全阻隔措施(例如沒有用包裝隔絕並標示「18 禁」),就會違反《刑法》的散布猥褻物品罪,刑度是 2 年以下有期徒刑、拘役或科或併科 9 萬元以下罰金。

實務上,曾有人不滿女友提分手,憤而把交往時拍攝的女友裸體照片散布在社群網站 Instagram,被法院判拘役 50 天,並以「一天 1000 元」易科罰金。

還有一則案例是前男友在兩人分手後,在網路論壇上傳親密影片供人瀏覽,被害人直到聽朋友說網路上有疑似自己的性愛影片,才知道受害。而觸法的前男友,也被法院判有期徒刑 3 月,緩刑 2 年。

將他人的裸照發佈在 IG 上,就有可能成立「散布猥褻物品罪」。圖/envato elements

另外,如果換臉影片的內容涉及「未成年人」,加害人除了違反《刑法》的散布猥褻物品罪外,還會同時觸犯保護兒少所特別制定的《兒童及少年性剝削防制條例》——如「拍攝、製造兒童或少年為性交或猥褻行為之電子訊號罪」以及「散布少年為性交及猥褻行為之電子訊號罪」。

而且,基於特別法優先於普通法的原則,加害人將會被用刑責較重的《兒童及少年性剝削防制條例罪》來處罰。

舉例來說,有個案例是被告在拍攝自己跟未成年人的性愛影片後,用影片要脅被害人,又把影片上傳到色情網站。針對拍攝影片的行為,被法院處有期徒刑 1 年 1 個月;恐嚇未成年人的部分,則被處有期徒刑 3 個月,得易科罰金;最後,散布猥褻影片的部分,被處有期徒刑 6 個月,得易科罰金。

不過,並非所有傳送裸露照片的人都會被定罪,還需要達到「散布」的程度,實務就曾有被告先拍攝被害人跟自己性交時的照片,還有被害人的大腿、胸部等私密處,再將照片傳送給某位網友觀賞;法院認為,被告只有把照片傳給「1 名」網友,不算是「散布」,就不能用散布猥褻物品罪處罰。

並非所有傳送裸露照片的人都會被定罪,還需要達到「散布」的程度。圖/envato elements

換臉影片又為何符合「妨害名譽」?

所謂妨害名譽罪,包含「公然侮辱罪」和「誹謗罪」兩種類型。兩者的共同點,都是在保護人民的名譽免於侵害,但差別在於:前者是透過「表達意見」來侵害名譽,後者則是用「陳述事實」的方式來做。

實務上,有法院用「事實能否驗證」的判準來區分「公然侮辱罪」和「誹謗罪」。

換言之,如果行為人的言論,語意脈絡空洞而無意義,無法客觀檢驗所依附的事實,僅讓被害人主觀評價下的感情或名譽意識受損,就屬於「侮辱」;反之,如果語意脈絡具體而有意義,客觀上可以清楚理解、辨識指摘的特定事實是什麼,此時就傷害到被害人客觀外部的名譽,就是「誹謗」要處理的範疇。

舉例來說,曾有被告在他人臉書專頁文章下留言「智障超譯的女表子」等文字,法院認為「婊子」是針對撰文者的「性別」的侮辱性用語,判被告犯刑法的公然侮辱罪,處罰金2千元。

另則案例是:被告在臉書社團爆料公社上,張貼指摘被害人是「史上地表最強小三」等內容的文章,法院認為被告用散布文字的方法,指受害人是介入他人婚姻關係的第三者,足以貶損人格尊嚴與社會評價,所以觸犯刑法的加重誹謗罪,處拘役 45 日,得易科罰金。

在網路上對人謾罵,就有可能被判「妨害名譽罪」。

那 Deep fake 換臉影片到底觸犯「公然侮辱罪」還是「誹謗罪」呢?

由於影片已直接將被害人的臉置換到 AV 內容當中,雖然沒有明確使用侮辱或謾罵被害人的文字,但影片本身已足以向觀賞者傳達「羞辱、侮蔑」被害人的意味,並讓被害人感受到極大的輕視和痛苦,所以可能會成立刑公然侮辱罪。

而含有性交和裸露鏡頭的換臉影片,一旦在網路流出後,不免有人會相信影片主角有拍攝的事實,將嚴重影響被害人在一般人心中的名譽和社會地位,所以也可能會成立加重誹謗罪。

而觸犯刑法公然侮辱罪,可處拘役或九千元以下罰金;觸犯刑法加重誹謗罪,則將處二年以下有期徒刑、拘役或三萬元以下罰金。

換臉影片觸犯了《個人資料保護法》!

所謂「個人資料」,依規定包括:任何足以辨識個人的資料,包括姓名、生日、特徵等。由於製作「Deepfake」換臉影片,勢必會擷取被害人的臉部照片,而可以辨識個人的「臉部特徵」,實務肯認這就屬於《個人資料保護法》所要保護的「個人資料」。

每個人的「臉部特徵」都屬於個人隱私的一部分。圖/envato elements

而個人資料的蒐集、處理及利用,原則上需要得到當事人本人的同意,僅當政府機關基於法定目的,或私人基於契約關係、或其他重要的公共利益時,才能在不經同意的前提下,合理使用,但無論如何都不能侵害當事人的利益。否則,可能就會違反「非公務機關非法利用個人資料罪」,最高可處 5 年以下有期徒刑,得併科 100 萬元以下罰金。

類似案例像是:被告未經被害人同意,就在臉書社團張貼被害人的姓名、年齡、地址、個人大頭照、生活照、住家外觀照片,同時發表「小心這個人外表會騙人,目前侵占案避不見面」等言論。法院認為,被告把自己跟被害人間的債務糾紛私怨訴諸公眾,將被害人的個人資料揭露在臉書社團專頁,顯然侵害被害人的資訊隱私或自決權,觸犯個人資料保護法罪名,處有期徒刑 3 月,得易科罰金。

此外,為了製作 Deep fake 換臉影片,勢必使用明顯能夠辨識被害人的臉部照片,且非出於任何公益目的;依個資法,加害人就該負起「損害賠償」的責任!

肖像權被侵害,可依《民法》請求賠償

《民法》保障每個人的肖像權,這是一種「個人決定肖像是否公開的權利」,肖像權人可以自己決定是否揭露自己肖像,並決定在何種範圍內、何時、以何種方式、向何人揭露。

因此,如未經同意,就拍攝、重製他人的肖像等,就會侵害肖像權。

過去曾有案例,被告未經他人同意,就把被害人的照片後製,在臉上增加手掌圖案,並刊登在網路,表示「打臉」的意思,即使被告辯稱是為了評論與公益有關的事項,才製作網路圖片,但法院認為被告「並沒有」利用被害人肖像的權利,而以網路方式公開打臉圖片,已嚴重侵害被害人的肖像權。被害人除了可以請求刪除打臉圖片,也可以要求賠償自己的精神上損害。

(非當事打臉圖)

因此,那些臉部照片遭盜用、被製成換臉影片的被害人,可以依法請求製作者刪除影片,並請求慰撫金──具體來說,法院將依照實際加害情形、所造成的影響、被害人痛苦的程度、雙方的身分地位、經濟情形及其他各種狀況,以確認合適的賠償金額。

換臉也是「性騷擾」,可以申訴啟動調查

什麼是性騷擾行為?《性騷擾防治法》指出:像是那些違反被害人意願,播送跟性或性別有關的影像,而有損害被害人的人格尊嚴,造成被害人感受敵意或冒犯的情境。

而換臉影片將被害人照片後製成 A 片主角,彷彿讓眾人看見赤裸裸的自己,使被害人深感冒犯和不舒服,就是一種性騷擾。

性騷擾事件的被害人可向直轄市或縣(市)主管機關提出申訴,主管機關即應開啟調查程序,並可依法對行為人處以新臺幣一萬元以上十萬元以下罰鍰。

而有鑑近年數位和網路性別暴力案例頻傳,行政院性別平等會更在今年 110 年 2 月 3 日,發布「數位/網路性別暴力之定義、類型及其內涵說明」一文,內容是參酌 CEDAW 一般性建議第 19 號第 6 段意旨,明確定義數位/網路性別暴力,明列數位/網路性別暴力的態樣,其中就包括「未經同意散布與性/性別有關個人私密資料」,並表態有意擬定相關防治政策、訂修法規,有待後續明顯進展。

「換臉 A 片」也是一種性騷擾。圖/envato elements

要求換臉影片下架,有法律機制嗎?

被害人若發現某網路平台上有換臉影片,可以要求業者將影片下架嗎?

關於網路平台業者有無管制用戶言論的責任,曾有判決指出:網路業者並非司法機關,沒有判斷用戶行為是否構成侵害他人權利的權限,且若平台判斷錯誤,將有侵害言論自由的疑慮。為了兼顧用戶的言論自由及保護被害人權利,網路業者只有在「明知或有相當理由足認確實發生侵權行為」時,才有採取防止措施(例如刪文)的義務。

換言之,在侵權事實水落石出之前,依照法院的慣例,網路平台業者可能沒有主動和積極管制用戶言論的權責,被害人除非能證明權利受到侵害,才能要求網路平台業者下架影片,較難及時避免損害繼續擴大。

為了處理這樣的進退兩難,行政院在 107 年 4 月 27 日提出《數位通訊傳播法草案》,明定網路業者對提供使用的資訊,應負擔法律責任──當被害人告知或警察機關通知有侵權的內容,網路業者就應採取適當的處置並保全證據。

業者如果確實在合理期間內移除侵權資訊,並好好保全相關證據,就可以免除後續的賠償問題。因此,本草案如經未來立法院三讀通過,可望附加網路業者更多積極管制換臉影片的措施。

圖/envato elements

此外,依照《兒童及少年福利與權益保障法》的要求,須設立「iWIN 網路內容防護機構申訴管道」。若民眾發現有害兒少身心健康的網路色情內容時,可以向 iWIN 網路內容防護機構提起申訴,iWIN 機構將依規定進行查證,如查證屬實,即通知業者移除或改善,若屆期未移除或改善,主管機關可以對業者進行裁罰。

水能載舟,亦能覆舟,科技的發展原意是要改善人們的生活,然而一旦遭有心人濫用,所造成的危害,將是遠遠超出我們的想像。

如長期氾濫的虛假訊息、以及層出不窮的網路性暴力威脅,除了有賴立法管制,也不該忽略加強對網路使用者的教育宣導,而將性別平權的概念深植到每個人的心中,才能從根本解決網路/數位的性別暴力現象。

願立法追上科技的腳步前,我們每個人都自動自發地成為 Deep fake 換臉影片的終結者。當看見非法的色情影片,不下載、也不分享,提出檢舉,終結那些血淋淋傷害持續擴大的可能性。

文章難易度
所有討論 1
法律白話文運動_96
26 篇文章 ・ 531 位粉絲
法律白話文運動」是致力於推廣法律知識與法治思想的獨立媒體,願與讀者一起從法律認識議題,從議題反思法律。

0

3
0

文字

分享

0
3
0
人造腦挑戰 AI!培養皿中的腦組織+腦機介面能打敗電腦嗎?
PanSci_96
・2023/05/27 ・3178字 ・閱讀時間約 6 分鐘

國小高年級科普文,素養閱讀就從今天就開始!!

2023 年 2 月底, 約翰霍普金斯大學教授 Thomas Hartung 帶領研究團隊,發表了「類器官智慧」(Organoid intelligence , OI)的研究成果,希望利用腦類器官加上腦機介面,打造全新的生物計算技術。

我們終於要製造人工大腦了嗎?OI 和 AI,誰會成為未來主宰?

類器官智慧 OI 是什麼?目標為何?

2023 年的現在,AI 就已展現了不少驚人的實際成果;相較之下, OI 仍只是一個剛起步的計畫,甚至連名稱都與 2018 年美國《自然—物理學》期刊專欄作家、物理學家布坎南以 Organoids of intelligence 作為標題的文章幾乎一樣。

類器官智慧、Organoid intelligence、OI 是個很新的跨領域名詞,同時結合了「腦類器官」和「腦機介面」兩個領域的技術。

簡單來說,腦類器官就是指透過培養或誘導多能幹細胞(iPSCs),在模擬體內環境的旋轉生物反應器中,產生的腦組織。這項聽起來好像只會出現在科幻電影裡的技術,確實已經存在。

最早的腦類器官是在 2007 年,日本 RIKEN 腦研究所的笹井芳樹和渡辺毅一的研究團隊,成功從人類胚胎幹細胞培養出前腦組織。第一個具有不同腦區的 3D 腦類器官則是發表在 2013 年的《Nature》期刊,由奧地利分子技術研究所的尤爾根.科布利希和瑪德琳.蘭開斯特研究團隊成功建立。

腦類器官的出現,在生物與醫學研究中有重大意義,這代表未來科學家們若需要進行大腦相關的研究,再也不用犧牲實驗動物或解剖大體老師來取得人類大腦,只需要在培養皿就製造出我們要的大腦即可。

儘管培養皿上的組織確實是大腦組織,但不論是在大小、功能,以及解剖構造上,至今的結果仍遠遠不及我們自然發育形成的大腦。因此要達到 OI 所需要的「智慧水準」,我們必須擴大現有的腦類器官,讓他成為一個更複雜、更耐久的 3D 結構。

要達到 OI 所需的「智慧水準」,必須擴大現有的腦類器官,成為一個更複雜的 3D 結構。圖/GIPHY

而這個大腦也必須含有與學習有關的細胞和基因,並讓這些細胞和 AI 以及機器學習系統相連接。透過新的模型、演算法以及腦機介面技術,最終我們將能了解腦類器官是如何學習、計算、處理,以及儲存。

OI 是 AI 的一種嗎?

OI 能不能算是 AI 的一種呢?可說是,也不是。

AI 的 A 指的是 Artificial,原則上只要是人為製造的智慧,都可以稱為 AI。OI 是透過人為培養的生物神經細胞所產生的智慧,所以可以說 OI 算是 AI 的一種。

但有一派的人不這麼認為。由於目前 AI 的開發都是透過數位電腦,因此普遍將 AI 看做數位電腦產生的智慧—— AI 和 OI 就好比數位對上生物,電腦對上人腦。

OI 有機會取代 AI ?它的優勢是什麼?

至於為何電腦運算的準確度和運算速度遠遠高於人腦,最主要原因是電腦的設計具有目的性,就是要做快速且準確的線性運算。反之,大腦神經迴路是網狀、活的連結。

人類本身的基因組成以及每天接收的環境刺激,不斷地改變著大腦,每一分每一秒,我們的神經迴路都和之前的狀態不一樣,所以即使就單一的運算速度比不上電腦,但人腦卻有著更高學習的效率、可延展性和能源使用效率。在學習一個相同的新任務時,電腦甚至需要消耗比人類多 100 億倍的能量才能完成。

神經網路接受著不同刺激。圖/GIPHY

這樣看來,至少 OI 在硬體的效率與耗能上有著更高優勢,若能結合 AI 與 OI 優點,把 AI 的軟體搭載到 OI 的硬體上,打造完美的運算系統似乎不是夢想。

但是 OI 的發展已經到達哪裡,我們還離這目標多遠呢?

OI 可能面臨的阻礙及目前的發展

去年底,澳洲腦科學公司 Cortical Labs 的布雷特.卡根(Brett Kagan)帶領研究團隊,做出了會玩古早電子遊戲《乓》(Pong)的培養皿大腦—— DishBrain。這個由 80 萬個細胞組成,與熊蜂腦神經元數量相近的 DishBrain,對比於傳統的 AI 需要花超過 90 分鐘才能學會,它在短短 5 分鐘內就能掌握玩法,能量的消耗也較少。

現階段約翰霍普金斯動物替代中心等機構,其實只能生產出直徑大小約 500 微米,也就是大約一粒鹽巴大小的尺寸的腦類器官。當然,這樣的大小就含有約 10 萬個細胞數目,已經非常驚人。雖然有其他研究團隊已能透過超過 1 年的培養時間做出直徑 3~5 毫米的腦類器官,但離目標細胞數目 1000 萬的腦類器官還有一段距離。

為了實現 OI 的目標,培養更大的 3D 腦類器官是首要任務。

OI 的改良及多方整合

腦類器官畢竟還是個生物組織,卻不像生物大腦有著血管系統,能進行氧氣、養分、生長因子的灌流並移除代謝的廢物,因此還需要有更完善的微流體灌流系統來支持腦類器官樣本的擴展性和長期穩定狀態。

在培養完成腦類器官以及確定能使其長期存活後,最重要的就是進行腦器官訊息輸入以及反應輸出的數據分析,如此我們才能得知腦類器官如何進行生物計算。

受到腦波圖(EEG)紀錄的啟發,研究團隊將研發專屬腦類器官的 3D 微電極陣列(MEA),如此能以類似頭戴腦波電極帽的方式,把整個腦類器官用具彈性且柔軟的外殼包覆,並用高解析度和高信噪比的方式進行大規模表面刺激與紀錄。

研究團隊受腦波圖(EEG)紀錄的啟發。圖/Envato Elements

若想要進一步更透徹地分析腦類器官的訊號,表面紀錄是遠遠不夠的。因此,傷害最小化的的侵入式紀錄來獲取更高解析度的電生理訊號是非常重要的。研究團隊將使用專門為活體實驗動物使用的矽探針Neuropixels,進一步改良成類腦器官專用且能靈活使用的裝置。

正所謂取長補短,欲成就 OI,AI 的使用和貢獻一點也不可少。

下一步,團隊會將進行腦機介面,在這邊植入的腦則不再是人類大腦,而是腦類器官。透過 AI 以及機器學習來找到腦類器官是如何形成學習記憶,產生智慧。過程中由於數據資料將會非常的龐大,大數據的分析也是無可避免。

隨著 AI 快速發展的趨勢,OI 的網路聲量提升不少,或許將有機會獲得更多的關注與研究補助經費,加速研究進度。更有趣的是,不僅有一批人希望讓 AI 更像人腦,也有另一批人想要讓 OI 更像電腦。

生物、機械與 AI 的界線似乎會變得越來越模糊。

OI=創造「生命」?

生物、機械與 AI 的界線越來越模糊。圖/Envato Elements

講到這裡,不免讓人擔心,若有一天 OI 真的產生智慧,我們是否就等於憑空創造出了某種「生命」?這勢必將引發複雜的道德倫理問題。

雖然研究團隊也強調, OI 的目標並不是重新創造人類的意識,而是研究與學習、認知和計算相關的功能,但「意識究竟是什麼」,這個哲學思辨至今都還未有結論。

到底懂得「學習」、「計算」的有機體能算是有意識嗎?如果將視覺腦機介面裝在 OI 上,它是否會發現自己是受困於培養皿上,被科學家們宰割的生物計算機?

不過這些問題不僅僅是 OI 該擔心的問題,隨著人工智慧的發展,GPT、Bing 和其他由矽構成的金屬智慧,隨著通過一個又一個智力、能力測試,也終將面臨相應的哲學與倫理問題。

最後,Neuralink 的執行長馬斯克說過(對,又是他 XD),人類要不被 AI 拋下,或許就得靠生物晶片、生物技術來強化自己。面對現在人工智慧、機械改造、生物晶片各種選擇擺在眼前,未來你想以什麼樣的型態生活呢?

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

PanSci_96
1165 篇文章 ・ 1509 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

3
2

文字

分享

0
3
2
透過 AI 繪圖原理,你就知道怎麼訓練做圖生成!
PanSci_96
・2023/04/29 ・2014字 ・閱讀時間約 4 分鐘

AI 生圖是透過訓練模型學習自行生成圖像,而電腦繪圖則是由使用者透過軟體或工具手動繪製圖像。

儘管可能較缺乏人工繪圖的細節與創意,但是都是由 AI 自己生成,每張絕無僅有,這樣應該也算是有些創意吧?

究竟這個「安能辨我是 AI」的新時代,到底是怎麼突然降臨的呢?

現代魔法師的誕生

現在夯、猶如魔法的 Midjourney,使用者針對想要創作的內容和風格,給出關鍵字如 Hyper realistic、Xerox Art、masterpiece、underwater,以及畫面比例等參數,甚至是特定藝術家的名字,大約 30 秒到 1 分鐘,就能完成作品,對一般民眾來極容易上手。

如果生成出不對勁的怪圖,只要請它參照範例、補充關鍵字,或是你本身就有一點修圖能力,就可以產出高品質的美圖。因此,我們也可以說這是一種能和 AI 繪師對話的語言介面,新的職業「AI 溝通師」也隨之出現。

AI 生圖其實也不是什麼新技術,早就有人採用一種名為 GAN 的對抗式生成網路的演算法來生成圖片。在 2018 年也有人用來生成某種藝術作品,並拍賣出高價,當然在當時與其說是美麗的藝術,其實更多是個噱頭。

從模仿到創造

為了達成「創新」,AI 研究者放棄了 GAN 中讓 AI 互相競爭找出「最佳解」的對抗式思維,提出一種名為「Diffusion model」擴散模型的新概念。

如果觀察 Stable diffusion 或 Midjourney 生圖過程,可以發現到,圖片會從一團什麼都沒有的雜訊開始,逐漸出現五官、輪廓等特徵,最後才變成有著豐富細節的精緻畫作。

擴散模型的去噪過程。圖/維基百科

Diffusion model 在訓練時則是會先看到一張完整照片,接著依照馬可夫鏈的過程,以高斯分布的方式往圖片上加入隨機噪點。待整張圖變成一團雜訊,等它學會從一張圖到混亂雜訊的過程後,再習得如何從混亂雜訊中生成圖的能力;於每一步加噪的過程中學會降噪,使用時間鉗形攻勢,完成雙向學習。

Diffusion model 在接下來的訓練中,會不斷調整自己的參數,學習自己生成圖片。這個訓練好的 Diffusion model 其實就像個大型藍色窗簾機器人,從雜訊中抓出特定特徵,例如看到兩點一線,就說是人類的眼睛與嘴巴,接著漸漸畫出人類的面貌。

過程中還會加上一個名為「變方自編碼器」(Variational Auto-encoder ,VAE)的加持,使它輸出的不只是原本的訓練或輸入的圖片,而是真正能夠「無中生有」的連續性畫素,而這就是擴散模型被稱為生成模型的原因。另外,隨著步驟越多,解析度或細節可以更高,每一次相同的關鍵字或輸入圖檔,經過模型輸出的結果都有著不確定性。

從二維到三維

當你以為畫奇幻插畫和二次元美少女就是極限了,最新進展絕對更令人大開眼界!

前陣子開發出來的模型,能讓使用者自己上傳作品或相同風格的畫風,來產出更多樣化的素材。例如不久前在日本被下架的 mimic;而 DALL-E 則推出 Outpainting 功能,例如輸入知名畫作,它會替其擴張圖片,算出可能的背景樣式。

DALL-E 算出知名畫作《戴珍珠耳環的少女》的可能背景樣式。圖/OpenAI

若再將繪圖 AI 訓練到不只能輸出圖片,甚至能輸出擬真的照片呢?已經有人這麼做了。

最近最紅的生成模型,可以把疫情期間我們一張張戴口罩的照片全自動 PS 出嘴巴鼻子、輕易更換穿搭風格等。新出的 AI 繪圖軟體 ControlNET,甚至只要提供骨架甚至幾個線條,就能繪出相同姿勢的人物圖像。

如果我們能夠生成無法辨別的真人外觀,再搭配已經有的 3D 骨架建模生成模型,豈不是可以達成科幻電影「虛擬偶像(Simone,2002)」的劇情,生成一個假演員來演戲拍廣告!

這些 AI 生成模型其實都只是為我們所用的工具,這波 AI 繪圖師的加入,肯定會大量取代中階以下的商用和插畫家的需求,並解決業主和設計師之間的溝通成本,各家美術或遊戲公司紛紛開出 AI 溝通師的職缺。追隨主流審美的人類繪師受創最深,而對已有強烈藝術風格的大師或非主流藝術家來說,目前相對不受影響。

使用 AI 完成的藝術作品。圖/GIPHY

AI 繪圖工具的出現,掀起了一股巨浪。如今不僅有人能利用 AI 生成作品得獎,也開始能看到有人使用 AI 創作進行營利、販售。

然而創作領域中模仿、挪用、抄襲、致敬等等的問題在 AI 出現以前就是個難解之題,來到大生成時代,這類問題只會越來越多,我們又該如何面對它呢?

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

PanSci_96
1165 篇文章 ・ 1509 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

2
0

文字

分享

0
2
0
Google Tensor 處理器是什麼?厲害在哪?
PanSci_96
・2023/04/08 ・2920字 ・閱讀時間約 6 分鐘

國小高年級科普文,素養閱讀就從今天就開始!!

 Google 新出的 Pixel 7 Pro,其核心繼續沿用上一代開始自行研發的晶片,並且升級為 Google Tensor G2。

由 Google 開發、號稱專為 AI 設計打造的 Tensor 晶片,尤其著重在 TPU。打開處理器 Google Tensor 一探究竟,裡面放著 CPU、GPU,以及擁有 AI 運算能力的 TPU(Tensor Processing Unit)張量處理單元。

什麼是 TPU?與 CPU、GPU 有什麼不同?要了解 TPU,先來看看他的前輩 CPU 和 GPU 是如何運作的吧!

TPU 處理器晶片是什麼?先從了解 CPU 開始!

不論手機、電腦還是超級電腦,當代計算機的通用架構,都是使用以圖靈機為概念設計出來的馮紐曼架構,這個程式指令記憶體和資料記憶體合併在一起的概念架構,從 1945 年提出後就一直被使用到現在。

除了輸入輸出設備外,架構中還包含了三大結構:記憶體 Memory、控制單元 CU 與算術邏輯單元 ALU。在電腦主機中,控制單元 CU 和算術邏輯單元 ALU 都被包在中央處理器 CPU(Central Processing Unit)中;記憶體則以不同形式散佈,依存取速度分為:暫存器(Register)、快取(Cache)、主記憶體(Main memory)與大量儲存裝置(Mass storage)。

馮紐曼架構(Von Neumann architecture)。圖/Wikimedia Commons

算術邏輯單元 ALU 負責運算,透過邏輯閘進行加減乘除、邏輯判斷、平移等基礎運算,透過一次次的運算,完成複雜的程式。有了精密的算術邏輯單元,還有一個很重要的,也是控制單元 CU 最主要的工作——流程管理。

為了加速計算,CU 會分析任務,把需要運行的資料與程式放進離 ALU 最近、存取速度最快的暫存器中。在等 ALU 完成任務的同時,CU 會判斷接下來的工作流程,事先將後面會用到的資料拉進快取與主記憶體,並在算術邏輯單元完成任務後,安排下一個任務給它,然後把半完成品放到下一個暫存器中等待下一步的運算。

CPU 就像是一間工廠,ALU 則是負責加工的機器,CU 則作為流水線上的履帶與機械手臂,不斷將原料與半成品運向下一站,同時控制工廠與倉庫間的物流運輸,讓效率最大化。

然而隨著科技發展,人們需要電腦處理的任務量越來越大。就以照片為例,隨手拍的一張 1080p 相片就含有1920*1080 共 2073600 個像素,不僅如此,在彩色相片中,每一個像素還包含 R、G、B 三種數值,如果是有透明度的 PNG 圖片,那還多一個 Alpha 值(A值),代表一張相片就有 800 萬個元素要做處理,更不用說現在的手機很多都已經能拍到 4K 以上的畫質,這對於 CPU 來說實在過於辛苦。

很多照片都有 4K 以上的畫質,這對於 CPU 來說實在過於辛苦。圖/Envato Elements

由於 CPU 只有一條生產線,能做的就是增加生產線的數量;工程師也發現,其實在影像處理的過程中,瓶頸不是在於運算的題目過於困難,而是工作量非常龐大。CPU 是很強沒錯,但處理量能不夠怎麼辦?

那就換狂開產線的 GPU!

比起增加算術邏輯單元的運算速度,不如重新改建一下原有的工廠!在廠房中盡可能放入更多構造相同的流水線,而倉庫這種大型倉儲空間則可以讓所有流水線共同使用,這樣不僅能增加單位體積中的運算效能,在相同時間內,也可以產出更多的東西,減少一張相片運算的時間。

顯卡大廠 NVIDIA 在 1999 年首次提出了將圖形處理器獨立出來的構想,並發表了第一個為加速圖形運算而誕生、歷史上第一張顯卡—— GPU(Graphics Processing Unit)NVIDIA GeForce 256。

在一顆 GPU 中會有數百到數千個 ALU,就像是把許多小 CPU 塞在同一張顯卡上;在影像處理的過程中,CU 會把每一格像素分配給不同的 ALU,當處理相同的工作時,GPU 就可以大幅提升處理效率。

這也是為什麼加密貨幣市場中的「礦工」們,大部分都以 GPU 作為挖礦工具;由於礦工們實際在做的計算並不困難,重點是需要不斷反覆計算,處理有龐大工作量的「工作量證明機制」問題,利用 GPU 加速就是最佳解。

不過,影像處理技術的需求隨著時代變得更加複雜,這就是人工智慧的範疇了。以一張相片來說,要能認出是誰,就需要有一道處理工序來比較、綜合諮詢以進行人臉辨識;如果要提升準度,就要不斷加入參數,像是眼鏡的有無、臉上的皺紋、髮型,除此之外還要考慮到人物在相片中的旋轉、光線造成的明暗對比等。

人臉辨識是人工智慧範疇。圖/Envato Elements

每一次的參數判斷,在機器學習中都是一層不同的過濾器(filter)。在每一次計算中,AI 會拿著這個過濾器,在相片上從左至右,從上至下,去找相片中是否有符合這個特徵;每一次的比對,就會給一個分數,總分越高,代表這附近有越高的機率符合過濾器想找的對象,就像玩踩地雷一樣,當這邊出現高分數的時候,就是找到目標了。

而這種方式被稱為卷積神經網路(Convolutional Neural Networks, CNN),為神經網路的一種,被大量使用在影像辨識中。除了能增進影像辨識的準確度外,透過改變過濾器的次數、移動時的快慢、共用的參數等,還可以減少矩陣的運算次數、加快神經網路的計算。

然而即便如此,工作量還是比傳統影像處理複雜多了。為應對龐大的矩陣運算,我們的主角 TPU(Tensor Processing Unit)張量處理單元就誕生了!

TPU 如何優化 AI 運算

既然 CNN 的關鍵就是矩陣運算,那就來做一個矩陣運算特別快的晶片吧!

TPU 在處理矩陣運算上採用脈動陣列(Systolic Array)的方式;比起 GPU 中每個 ALU 都各做各的,在 TPU 裡面的資料會在各個 ALU 之間穿梭,每個 ALU 專門負責一部分,共同完成任務。這麼做有兩個好處,一是每個人負擔的工作量更少,代表每個 ALU 的體積可以再縮小;二是半成品傳遞的過程可以直接在 ALU 之間進行,不再需要把半成品借放在暫存區再拿出來,大幅減少了儲存與讀取的時間。

在這樣的架構下,比起只能塞進約 4000 個核心的 GPU,TPU 可以塞進 128*128 共 1.6 萬個核心,加上每個核心負擔的工作量更小,運算速度也就更快、耗電量更低。我們經常使用的 google 服務,許多也是用了 TPU 做優化,像是本身就是全球最大搜尋引擎的 google、google 翻譯、google map 上都大量使用了 TPU 和神經網路來加速。

Google 服務大量使用了 TPU 和神經網路來加速。圖/GIPHY

2021 年,Google 更把 TPU 導入到自家手機產品中,也就是前面我們提到的 Google Tensor;今年更是在 Pixel 7 中放入升級後的 Google Tensor G2。

Google 表示新款人工智慧晶片可以加快 60% 的機器學習速度,也加快語音助理的處理速度與增加功能、在通話時去除雜音增進通話品質等,不過最有感的還是圖像處理,像是透過 AI 多了修復模糊處理,不僅可以修正手震,還能把舊相片也變得清晰。

現在新款的手機為凸顯不同,越來越強調自家晶片設計與效能的差異;除了 Google 的 TPU 外,其他公司也朝著 AI 晶片的方向前進,包括蘋果、高通、聯發科、中國的寒武紀等,也都發表了自行研發的神經網路處理器 NPU。

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

PanSci_96
1165 篇文章 ・ 1509 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。