0

0
0

文字

分享

0
0
0

知識大圖解:圖解攝錄影機的運作原理

知識大圖解_96
・2014/10/23 ・951字 ・閱讀時間約 1 分鐘 ・SR值 504 ・六年級

-----廣告,請繼續往下閱讀-----

(點擊看大圖)
(點擊看大圖)

數位攝影機如何捕捉、記錄高解析度影片呢?

現代數位攝影機的運作原理基本上與1980年代的大型VCR類比攝影機相同,兩者都包含了鏡頭、成像器和儲存媒體,但最大的不同是如今的攝影機將類比資料轉成了數位格式,而攝影技術整體也縮小成更實用、適合手持的大小。

攝錄影機透過鏡頭將現場光線的樣式聚焦在成像器上,成像器通常為CMOS感光元件或CCD(電荷耦合元件)。CCD是一種小半導體,可容納大約50萬感光單元(對光敏感的迷你二極體,可以測量光子數量,並且將光子轉換為電荷)。播放影片時,電荷強度會幫助攝錄影機判斷該點的光線強度。顏色則藉由測量綠色、紅色和藍色的程度決定,因為所有顏色都可由混合這三原色重現。

為了捕捉動態影像,CCD會將影片中的每格畫面傳送到主成像器後方,轉像系統中的外加感光器。這第二個感光器會將每個感光單位的電荷傳送到類比/數位轉換器,而第一層感光器則會自行清空,準備捕捉下一個影像。

-----廣告,請繼續往下閱讀-----

最新的頂級攝錄影機雖然體型小,容納的技術卻多得驚人。舉例來說,日立的超高清攝錄影機(Super Hi-Vision)每秒可以拍下120張3300萬像素的影像,精細程度相當於IMAX電影。

什麼是感光元件

互補式金氧半導體(CMOS)感光元件是一種影像感應器,已取代多數行動電話、網路攝影機和數位單眼相機中的CCD。CMOS感光元件利用像素上的微小電晶體來個別捕捉每個點。電晶體會吸收並放大捕捉光點轉換而來的電荷,接著再透過電線傳送。

CMOS感光元件將影像處理和捕捉的功能整合在同樣的裝置上,耗電通常小於CCD,遲滯現象較少,也比較不涉及昂貴的製程。CMOS感光元件也因此常見於手機相機裡,因為手機正需要更便宜、省電的元件。CMOS感光元件因其線路很容易產生影像雜訊,畫質通常遜於CCD,因此後者常用於較高端的影像技術。

類比 VS 數位

數位與類比攝錄影機之間的最大差異在於資料的記錄方式。類比攝錄影機通常利用VHS磁帶記錄磁圖案,但有兩個最大的問題:需要大量的實體空間來存放卡帶,也需要硬碟上的虛擬空間;此外,類比資料每複製一次,就會「褪色」一些。相反地,資料數位化可以壓縮影像,在記憶卡或固態硬碟中所佔的虛擬空間少了許多。資料也可以原封不動地複製,不會像類比資料一樣隨時間褪逝。

-----廣告,請繼續往下閱讀-----

本文選自《HOW IT WORKS知識大圖解 中文版》第01期(2014年10月號)

文章難易度
知識大圖解_96
76 篇文章 ・ 11 位粉絲
How It Works擅長將複雜的知識轉化為活潑有趣的圖解知識,編輯方式以圖像化百科呈現,精簡易懂、精采動人、深入淺出的圖文編排,讓各年齡層的讀者們都能輕鬆閱讀。

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
文章難易度

討論功能關閉中。

賴昭正_96
43 篇文章 ・ 56 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

0

0
1

文字

分享

0
0
1
忠泰美術館新展《未來的生命,未來的你─數位、機器與賽博格》9/9 登場
PanSci_96
・2023/09/08 ・6294字 ・閱讀時間約 13 分鐘

-----廣告,請繼續往下閱讀-----

15 組國內外藝術家與團隊開啟新生命與未來情境的提問、想像與思索

「你是否曾想像,在身體中植入機械,人機融合並化身為賽博格的自己?」

忠泰美術館即將於 9 月 9 日至 2024 年 1 月 28 日推出全新當代藝術展《未來的生命,未來的你數位、機器與賽博格》(The Future Life, Future You – Digital, Machine and Cyborgs)。延續上檔展覽中以建構城市與文明的基礎「人」出發,由反思擁有肉身的「人類」存在與本質,進一步探問「生命何為」,思考人與科技共構的未來生命情境與議題。本展邀請沈伯丞擔任策展人,匯集來自英、美、法、日、德國與埃及、西班牙、墨西哥、臺灣共 15 組國外內藝術家與團體,帶來 6 組全球首展與 4 組全臺首度亮相的新作,透過 AI 演算、大數據、深偽技術、穿戴裝置、賽博格等科技與藝術的結合創作,映射出藝術家們對未來生命形貌的多元想像。

生命何為:生命是什麼?能做什麼?為了什麼?

當 AI 人工智慧、機械穿戴手臂從科幻電影橋段躍入我們的日常生活中,科技改變生活,也逐漸影響了生命的樣貌與演化,生命開始超越人類肉身的物理型態時,我們又該如何去思考未來的生命與生活?忠泰美術館本次邀請沈伯丞擔任策展人,以其長期的藝術計畫「再・創世:智慧生命的衍生型態」研究為基礎,從生命是一個持續發展中、創造中的概念出發,策劃當代藝術展《未來的生命,未來的你─數位、機器與賽博格》,從藝術視角思辨,當科技介入了生活與生命,生物六大分類之外是否還將多出「科技界」?物競天擇「演化論」與科技始終來自於人性的「控制論」交會之下,未來的生命與生活情境又會有怎樣的想像。

沈伯丞表示:「展覽所意欲投射的並非僅是關乎生命的『科技』,更是關乎新科技情境中『生命樣態』的人文思索與美學關懷。」,展覽邀請了 Aiden Faherty、Hassan Ragab、Jake Elwes、JIZAI ARMS project team、Mal Bueno、Markos Kay、Martin Backes、Moon Ribas、Patrick Tresset、Universal Everything、陳乂、陳萬仁、陽春麵研究舍─陳姿尹、莊向峰、黃新、蘇匯宇,國內外共 15 組用創作回應科技浪潮的藝術家與團隊,透過3個子題「流動的生命與身體」、「數位裡的你與數位的它」和「機器、人與賽博格」,引領觀者凝視現場作品,直面新生命與新生命情境的提問、想像與思索。

「流動的生命與身體」 當科技鬆動了生命與身體定義

地球上的生命經歷數十億年的自然演化,形成了如今的物種樣貌,隨著科技的日新月異,無序且隨機的自然演化過程被演算與邏輯控制。隨著科技而流動的生命觀點與身體型態,恰是「人擇」的證明,人與動物、有機體與無機體,現實與虛擬之間的邊界逐漸模糊鬆動,生命與身體的型態也有了更多的解讀。

-----廣告,請繼續往下閱讀-----

英國藝術家傑克.艾維斯(Jake Elwes)首度在臺展出的〈Zizi 動起來:深偽變裝烏托邦〉,將深偽技術(deepfake)與酷兒群體結合,從 AI 演算中誕生的變裝皇后們,在如同櫥窗的螢幕中不斷流轉變換軀體與角色,企圖反思人工智慧的族群概念,打破固化的性別與身體定義。臺灣藝術家蘇匯宇的〈The White Waters〉三頻道錄像作品,以「後人類」敘事補述經典傳說《白蛇傳》,從文本中人、蛇異種的身體流動,解構生物界的邊界。埃及建築師哈桑.拉賈(Hassan Ragab)的系列影像,提取人與建築的影像,透過 AI 圖像生成系統 Midjourney、Stable Diffusion 等,將建築從「生活機器」,幻化為能走秀、跳舞的人形「生物活體」。

美術館還將於 11 月中旬加碼開放忠泰企業大廳展區,展出英國藝術團體Universal Everything的知名作品〈變形〉,巨型人形影像,邁著未曾停止的步伐,宛如電影《驚奇4超人》般從石頭、火、水、金屬等自然的元素不斷地演化變形,映照著生命與人類的演化從不止息。

「數位裡的你與數位的它」 演算法環境中人類與生命的形象

當生命與身體在演化與演算交會時被重新定義,數位維度中對「自我」與「他者」的認知也將有所轉變。

1、「你」:人類於演算環境中的形象

關於人類於數位環境中對「自我」的認定,甫獲得林茲電子藝術獎的臺灣藝術團隊陽春麵研究舍─陳姿尹、莊向峰,於本展中將得獎作品《Inter net》系列延伸出兩組全新現地創作,接續探討 AI 演算中「我」的形象。空間互動裝置〈Inter net – Labeling me〉中,可見 AI 判讀標記、搜尋引擎記錄,以及機器人與觀者「眾包標註」下的「我」的形象。單頻道演算影像裝置〈The Portrait – The Crowd’s Portrait of Me〉與〈The Portrait – My Self-Portrait〉將描述藝術家的文本轉換成特徵向量,以看似雜訊的影像,勾勒出數位足跡中的認知肖像。

-----廣告,請繼續往下閱讀-----

陳萬仁作品〈歪腰一下〉,位於美術館天井中,讓觀者以仰望的視角,觀看由藝術家 3D 繪製的人形,將現實去背進行數位縫合,行走於數位時空裡無止盡的空循環與延伸。墨西哥藝術家馬爾.布埃諾(Mal Bueno)全球首次展出的作品〈終曲〉,將與作品互動的觀者形象上傳到數位維度中,直覺呈現數位演算法中的「你」。

2、「它」:演算誕生的新生命型態

當現實生活中的元素與概念轉化成編碼再重新生成,人的意識與選擇,又會如何影響新生命情境?臺灣藝術家黃新的全新創作〈生成速寫:多肉植物園〉即時演算影像裝置,便是將多肉植物由演算法生成速寫畫,以程式的幾何造型來解構日常的場景。陳乂的人造風動模擬裝置〈風場〉,以風量、風向與風的聲音資訊作為採集與實驗項目,將 AI 演算法生成的數據模型匯入機械裝置結合,由蘆葦般的發光體演繹一段模仿自然風吹的搖曳姿態。

以數位人造生命為題,英國藝術家馬科斯.凱(Markos Kay)的〈非生物起源〉,直接在數位環境中生成擁有鮮豔色彩,如同細胞般的新物種,藝術家試圖透過創作生命探詢生命起源。在 TikTok 抖音擁有超過 50 萬粉絲的「Coolacloy」,創作者是來自美國的藝術家艾登.費海提(Aiden Faherty),本次展出的影像作品〈穿越超驗森林之旅〉為藝術家首次於國際間展出的作品,透過 AI 深層學習模型捕捉自然界資訊生成的生態系,讓觀者進入現實與想像無縫融合的《愛麗絲夢遊仙境》。

德國藝術家馬丁.貝克斯(Martin Backes)的擴增實境創作〈我知道什麼?我只是個機器?!〉,讓觀眾透過行動裝置與懸浮在美術館空間內的正圓球形機器人相遇、對話,藝術家試圖透過 AR 擴增實境昭示數位維度裡的新生命型態。

-----廣告,請繼續往下閱讀-----

「機器、人與賽博格」 人與科技重新共構的生命情境

科技趨勢預言家凱文.凱利(Kevin Kelly)曾提出「科技界」的概念,即科技體為生命的第七種型態,而人工智慧的發展,彷彿回應著此概念,預告了人與機器之間的新關係網路。法國藝術家帕特里克.特雷塞特(Patrick Tresset)透過作品〈人類研究 #2─公雞與狐狸等的大虛幻〉,思考著機器、人之間的多重可能性。機器手臂進行素描繪圖,如同人類般觀察、提筆,探索著機器如何學習成人的過程,同時也由此行為反思機器的「創作」是否為創作?是否為「藝術」?

機器學著成為人,而人則試圖將肉體改造為混合機器的「賽博格」。被喻為世界上第一位女賽博格藝術家的西班牙藝術家穆恩.里巴斯(Moon Ribas),通過將地震傳感器植入體內,讓身體與大地的律動結合一體。首次在臺展出的作品〈在蒙塞拉特山等待地震〉為一支雙人舞作,由地球掌控節奏和強度,而藝術家則透過接收地震波動的強弱來詮釋舞曲。日本東京大學實驗室研究計畫的自在肢計畫團隊(JIZAI ARMS project team),則以外掛型態研究開發穿戴式機器人模組《自在肢》,形似電影角色「八爪博士」的穿戴肢,能由使用者自由改變其穿戴型式,試圖探索賽博格社會中,不同「數位賽博格」之間所能發生的互動。

忠泰美術館導入 AI 技術應用 生成語音導覽、展覽主視覺

忠泰美術館持續透過當代藝術展覽及視角回應美術館長期關注的「城市」與「未來」議題,忠泰基金會執行長李彥良表示:「科技帶領著當代生活不停地變動與發展,也改變著人們的生活型態與認知。我們該如何在這樣的環境中找到適應並前進的方式?希望藉由本展所開啟的對話,能提供我們對於近未來想像的素材與方向。」

-----廣告,請繼續往下閱讀-----

館方也嘗試於展覽周邊事務中導入 AI 技術應用,包括結合 Bing Image Creator AI 繪圖工具製作的展覽主視覺,以及 AI 聲音生成技術製作的語音導覽等。本展中多件影像創作,忠泰美術館與連續 17 年全球電視銷售第一的三星電子攜手合作,使用擁有 AI 影像升頻技術的 Neo QLED 8K,結合量子 Mini LED 背光與金屬量子點顯色技術,呈現藝術家於數位維度的創作中,新物種、新生命情境的絢麗幻想。《未來的生命,未來的你》從 9 月 9 日展至明年 1 月 28 日,期間將陸續推出展覽系列專題講座、電影與漫畫共享沙龍、專家導覽等多元活動,邀請觀眾一同想像「未來的生命,未來的你」。更多展覽活動與看展優惠資訊,詳見美術館官方網站。

【展覽資訊】

展覽名稱|未來的生命,未來的你─數位、機器與賽博格

展覽期間|2023.09.09(六)-2024.01.28(日)

-----廣告,請繼續往下閱讀-----

展覽地點|忠泰美術館、忠泰企業大廳(臺北市大安區市民大道三段178號)

開放時間|週二至週日 10:00-18:00(週一休館);忠泰企業大廳作品展出時間請見官網參觀資訊

參觀資訊|全票 100 元、優待票 80 元(學生、65 歲以上長者、10 人以上團體);身心障礙者與其陪同者一名、12 歲以下兒童免票(優待票及免票須出示相關證件)

週三學生日|每週三憑學生證可當日單次免費參觀

-----廣告,請繼續往下閱讀-----

官網|https://jam.jutfoundation.org.tw/exhibition/4337

PanSci_96
1226 篇文章 ・ 2337 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

4
2

文字

分享

0
4
2
近在眼前的數位娛樂——智慧眼鏡的進化
鳥苷三磷酸 (PanSci Promo)_96
・2023/02/23 ・3280字 ・閱讀時間約 6 分鐘

本文由 Epson 委託,泛科學企劃執行。

元宇宙狂潮來襲,數位互動娛樂發展越來越多元!相信大家對 VR 眼鏡並不陌生,但是要人手一台卻還是有難度,反倒是 AR 科技越來越蓬勃發展!例如博物館將 AR 眼鏡結合手上的裝置做互動整合,讓展示的恐龍標本活生生活在你眼前;又或者是去兩廳院看劇,專屬的 AR 字幕體驗讓不同國家的觀眾朋友都能即時享受與深度導覽。

這種近在眼前的數位娛樂——智慧眼鏡到底是如何演進的?又有哪些技術關卡需要去突破呢?首先,需要先了解 VR、AR 甚至是更高深的 MR 跟 XR 是什麼?這些差異點又在哪呢?

數位娛樂——智慧眼鏡是如何演進的?圖/Envato Elements

AR、VR、MR、XR 傻傻分不清楚?

其實目前為止,大家所聽到的 AR、VR 和 MR,通通都屬於 XR(Extended Reality)「擴展實境」這個大概念下,只要這個設備或軟體能讓你體驗現實以外的資訊,甚至與之互動回饋,就都屬於 XR 唷!

-----廣告,請繼續往下閱讀-----

近幾年,因 Meta 執行長祖克伯誓師進軍元宇宙而大紅的 VR(Virtual Reality)「虛擬實境」強調沉浸式體驗,只要戴上 VR 眼鏡,不論是在家或者前往 VR 虛擬實境遊樂園都可以讓你體驗到與哥吉拉對戰或是到虛擬鬼屋探險等有趣體驗。

然而,戴上 VR 眼鏡需要完全的感官遮蔽,以及高昂的售價與電腦運算,甚至是配戴上的重量不適、操作上的空間需求……等都是不容易克服的缺點,目前仍有待市場檢驗。

相較之下,AR(Augmented Reality)「擴增實境」就親近許多,早在 90 年代鳥山明的經典作品《七龍珠》作品中他就用了「戰鬥力探測器」這個裝置讓我們體會到甚麼叫做 AR,而現實世界中的戰鬥力探測器更是就在你眼前,例如:開車玻璃板上顯示速度的 HUD 就算是一種把虛擬資訊投影到現實物體,這就是標準的 AR 技術呀!

而談起 AR 就一定要提到,2016 年遊戲公司 Niantic 推出這款名為 Pokemon Go 遊戲,就在全球掀起了在各地抓寶可夢的熱潮,這股熱潮至今不減,也體現出了 AR 真正強勢之處:與現實環境結合。

-----廣告,請繼續往下閱讀-----
Pokemon Go 體現了 AR 與現實環境結合。圖/Wikipedia

而這些年來,在許多自拍濾鏡或觀光集章活動也都是利用了 AR 科技,以現實環境的背景中呈現虛擬元素的特性,而這僅需要你我都有的智慧型手機就可以操作和看見虛擬的角色或頭飾,入門檻遠低於 VR,軟體開發的成本也比必須打造一個世界的元宇宙輕鬆不少。

既然 AR 都能把虛擬的資訊投影在現實的場域中,我們自然會更加貪心的想要和這些虛擬的角色互動,甚至是像阿湯哥《關鍵報告》中的技術一樣作為一個浮空的操控介面來使用,這時候我們需要的就不只是AR了,而是需要 MR(Mixed Reality)「混合實境」。

在 MR 技術中不僅有現實世界和虛擬世界的疊加,更強調虛擬元素可以和現實環境互相作用,例如:虛擬的車子可以偵測到你現實的桌子的邊緣而剎車,甚至你伸手碰觸虛擬元件會產生互動或是抓取效果,而這些技術恐怕就不是一支手機就能輕易辦到的了。要讓 AR 進入 MR,除了手機以外,還需要一個能擷取外部資訊的設備——AR 眼鏡。其實多年來 AR 眼鏡主要面對的難題是「畫面要清楚」、「顏色要飽和」、「不能對現實視線有太多干擾」同時還須具備「輕量化」與「舒適」等特點。

投影技術的演進突破,替智慧眼鏡帶來新的轉機

目前主流的 AR 眼鏡採用的是「全反射稜鏡」和「微投影迷你投影機」這兩個關鍵技術。AR 眼鏡上的「全反射稜鏡」針對眼球的折射率經過精密的計算和調整,可以完美在人的視網膜上呈現最清楚的影像,同時這種「全反射稜鏡」本身的光線通透度也高,因此仍能看到「全反射稜鏡」以外的現實世界景色,讓 AR 眼鏡提供的清晰影像與現實世界重疊在一起。

-----廣告,請繼續往下閱讀-----

而要談到 AR 眼鏡另一個核心技術「微型化投影」,就不得不提到發展出最具實用與潛力的 AR 眼鏡——Epson 投影機廠商,在了解「微型化投影」技術前就必須先回顧 Epson 從 1989 年鑽研的投影技術發展至今的變化。

Epson 一開始製作的投影機採用的是 LCD,和螢幕最大的不同是它每一個投影畫素都使用了 3 片 LCD 之多,原來是因為光學原理上只要有藍紅綠三色,就可以組合出各種顏色,也就是 3LCD 投影技術。使用 3LCD 技術的投影機必須把背景燈泡的白光源先濾成三色光之後,再利用三片獨立的 LCD 調整各色彩的比例作調變,最後才把三色光合併成影像,再投影出來。

投影機為 Epson 主要產品之一。圖/維基百科

如此麻煩的反射流程,所需要的空間自然不小,而且經過這樣的折射和濾光以後,成色的飽和度和對比總會低一階,甚至會產生近看醜醜的紗門效應(SDE),這就是為什麼早期的投影機投出來的簡報往往不如電腦螢幕上預演的好看。當然投影機廠商也早就注意到這問題,因此也隨著手機螢幕一起從 LCD 演進到 OLED(有機發光二極體),帶來新的顯示革命!

OLED 又有甚麼厲害的呢?如果說 LCD 的液晶主要的功能是調色,那 OLED 厲害的就是「它自己會發光」!和傳統 LCD 面板需要一個光源與背板來反射光線進入濾光階段不同,LED 燈泡經過多位科學家的努力,甚至包含榮獲 2014 諾貝爾獎的三位日本科學家赤崎勇(Isamu Akasaki)、天野浩(Hiroshi Amano)、中村修二(Shuji Nakamura)研發出最後一個「藍光 LED」後,終於達成發出三原色的成就,自此螢幕和投影技術不再需要多餘的濾光和反射步驟,於是面板可以變得更薄,同時又有更好的對比度。而隨之而來的 OLED 技術讓面板脫離了對玻璃的依賴,並改用塑料底板,讓有如科幻道具的摺疊式手機和曲面螢幕能夠成真。

-----廣告,請繼續往下閱讀-----

OLED 技術簡化了整個流程,成色還比原本的各種投影方式鮮豔飽和,很快地就大幅縮減了投影機的內部空間,成為露營狂熱者人手一機的便攜型投影機風潮。

但是問題來了!當投影機要放到眼鏡上時,其難度更是超越便攜投影機許多,再追求微型化的道路上「只有更小沒有最小」。而 Epson 早在 2011 就推出第一支 AR 眼鏡 BT-100,不斷朝輕量化與功能性研發,在 2016 年則推出了採用矽基有機發光二極體 Si-OLED 微投影技術的 BT-300,各家廠商也紛紛投入 micro OLED 投影的研發上,相信不久的將來又會有更厲害的 AR 眼鏡推出。

次視代智慧眼鏡 Moverio BT-40,豐富 5G 娛樂視野,獨享高畫質影音體驗。

現在可以看到照片中最新款的「次視代智慧眼鏡 Moverio BT-40」,這款 AR 眼鏡主打的最大特色就是提供可隨身攜帶的「專屬於你的 120 吋大畫面」,這麼大的畫面顯示卻只投影在你眼前,不僅擁有「高隱私」的特性,在長程旅行中,不管是搭飛機或是搭高鐵,只要戴上這個眼鏡就能直接把影片從手機投影到你眼前,解放雙手不用在手疼拿著平板啦,可以舒服自在的追劇或看電子書、讀期刊論文也行。

次視代智慧眼鏡 Moverio BT-40,加上「磁吸式遮光片」後能讓影像更加清楚,有助於專注在投影畫面中。

除了大尺吋觀影體驗之外,這款眼鏡更在博物館教育上大放異彩,如博物館把這款眼鏡結合接駁車,讓搭車的你也不無聊,虛擬博物館館長擔任導覽員為你解說各館區的歷史,進館後更能看到展示的恐龍標本在你面前復活,豐富了各種逛展體驗!

-----廣告,請繼續往下閱讀-----

而 AR 眼鏡還有另一個好處就是個人化體驗,例如看電影或演唱會時,戴上 AR 眼鏡就可以看到自己專屬的字幕相關資訊,這樣的虛實整合字幕體驗,在劇院已經導入 Epson BT-40 眼鏡和 AR 眼鏡字幕系統,表演字幕可以即時傳送到正在戲劇院觀看表演的觀眾 AR 眼鏡中,觀眾可以選取語言還能調整位置和大小,甚至幫助聽障朋友們理解演出,下次有機會去看表演時,若有提供這樣的服務不妨租借嘗試看看喔!

鳥苷三磷酸 (PanSci Promo)_96
200 篇文章 ・ 308 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia