0

0
0

文字

分享

0
0
0

高感度的新型感光器:像素前的微分光器!

Scimage
・2013/04/21 ・425字 ・閱讀時間少於 1 分鐘 ・SR值 517 ・六年級

彩色相機一直以來感光的極限都受限於因為要彩色成像,需要有不同的感測區塊加上濾片來測不同顏色的光,所以每個像素上的光很多都被浪費了。

以往的一個解決方式是利用分光鏡把不同波長的光投影到不同的CCD上,所以有所謂三CCD的攝影機。但是這樣的解決方案成本太高,無法普及。現在有公司開發出放在像素前的小分光器,可以把不同顏色的光導向不同的畫素,這樣一來就沒有因未使用濾鏡而被浪費的光,也可以整合進目前的感光元件設計。

這種小分光器的設計是利用光在小結構傳播時有波動的特性,所以不同波長的光的傳播對尺度很敏感,只要經過仔細的光學運算就可以設計出讓不同的光走不同路徑的微分光器。實際的裝置有設計出紅色跟藍色的分光器,可以把紅色跟藍色的光分到周圍的像素,也開發出了新的光學計算軟體。這樣的新型感測器或許有一天就會用在新的相機上,讓相機有更高的感光度跟夜拍的能力!

轉載自 Scimage 科學影像

-----廣告,請繼續往下閱讀-----
文章難易度
Scimage
113 篇文章 ・ 4 位粉絲
每日介紹科學新知, 科普知識與實際實驗影片-歡迎每一顆好奇的心 @_@!

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
文章難易度

討論功能關閉中。

賴昭正_96
43 篇文章 ・ 56 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

1

5
0

文字

分享

1
5
0
光學顯微技術探入果蠅腦袋最深處——描繪超高解析度的 3D 神經結構!
科技大觀園_96
・2021/08/30 ・3333字 ・閱讀時間約 6 分鐘

-----廣告,請繼續往下閱讀-----

在常見的醫療影像技術中,有正子造影(PET)、磁振造影(MRI)及超音波等等,雖然
如何透過神經細胞彼此的連結產生進一步的功能,是21世紀科學界想破解的謎團。圖/Pixabay

大腦:人類未竟的疆土

當我望著無邊無際的蔚藍海洋、聽到浪花聲、感受微風的輕拂,喜悅地回想起和好友在此旅行的回憶,並決定拿起手機拍下眼前的美景,我是如何感知世界、如何儲存與提取記憶?我的情感、思想、決策與行為是如何發生的?這些心智行為的奧秘藏在擁有 860 億個神經細胞的大腦,是我之所以為我的關鍵。

究竟大腦如何運作?這些神經細胞是如何透過彼此的連結與交互作用產生進一步的功能?進入 21 世紀以來,美國、歐盟、日本、中國等紛紛成立大型且長期的腦科學研究計畫,企圖揭開大腦的奧秘。

我國科技部也推出「台灣腦科技發展及國際躍升計畫」,整合既有研究能量與專業人才,期望建構模式動物至部分人腦的腦神經網路結構及功能圖譜,並帶動腦部疾病的精準醫療。

光學顯微鏡:小動物腦研究的利器

想要全面分析大腦的結構與訊號,解開單一或一群神經細胞的連結情形,精良的觀測工具是其根本,因此臺大物理系教授朱士維致力研發先進的光學顯微鏡技術。

-----廣告,請繼續往下閱讀-----

朱士維表示,常用於醫療的影像技術,像是正子造影(PET)、磁振造影(MRI)、超音波等,雖然可以穿透很深的物體,但是解析度不夠高,無法看到單一細胞;而解析度極高的電子顯微鏡穿透深度卻很小,只能看到表層。光學顯微鏡恰好介在中間,適合用於研究小動物的腦。近期,朱士維的跨領域團隊發表了數個嶄新的顯微技術,分別在解析神經訊號和結構有了重大突破。

數個影像技術在解析度與穿透深度的分布。圖/朱士維提供

飆速3D攝影,解析神經的功能性連結

首先,研究團隊發表了「高速體積成像系統」,是全球第一次可在活體果蠅腦中以毫秒解析度取得神經結構 3D 高速動態影像!

「高速體積成像系統」是由雙光子顯微鏡與「可調變的聲波漸層透鏡」(TAG)結合構成。拍攝二維的動態影像並不稀奇,厲害的是,研究團隊如何把二維變成三維?關鍵就在於「可調變的聲波漸層透鏡」。由於液體透鏡的密度,會決定光的折射率,進而影響焦距的長短,研究團隊透過壓電材料激發液體透鏡共振,當透鏡的密度不斷變化,焦點也會快速移動,其振盪頻率可高達 100 kHz – 1 MHz,也就是說,在 10 萬分之一秒以內即可完成焦點的來回移動。

「可調變的聲波漸層透鏡」(TAG)放置在物鏡前面,透過壓電材料促使TAG密度改變,進而移動焦點位置。圖/朱士維提供
焦點快速移動的示意動畫。圖/朱士維提供

一般雙光子顯微鏡每拍攝一次只能拍到水平面(xy 軸)的像素並組成二維影像,若加上「可調變的聲波漸層透鏡」組成「高速體積成像系統」,即可同時進行深度(z 軸)的來回掃描,在同樣的時間內拍攝出一個包含各個深度的體積三維影像。 

-----廣告,請繼續往下閱讀-----
同樣的時間下,原本只能掃描一個水平面,有了「可調變的聲波漸層透鏡」,則可掃描完一個體積。圖/改自參考資料 2

這項強大的技術對於研究神經與神經之間的功能性連結非常有用,譬如說,想了解果蠅如何處理嗅覺訊號,我們可以給果蠅聞一種特殊氣體,以「高速體積成像系統」綜觀其腦,即可找出此特殊的嗅覺刺激會引發哪些下游神經反應。接著,選擇想深入研究的神經,將拍攝範圍鎖定在該神經所在的區域,便可以毫秒時間解析度與微米空間解析度,追蹤訊號在這些神經細胞之間的傳遞順序。 

朱士維表示,「高速體積成像系統」的突破之處,在於可以於腦中劃定任意形狀的空間,並以毫秒等級的時間解析度,看見目標神經中各個神經細胞的電生理動態行為。

研究團隊更進一步發展光學神經激發系統,用光精準地刺激個別神經,再透過「高速體積成像系統」,輔以自動化影像分析,精準定位有反應之神經區域,做到「全光學生理」觀察(all-optical physiology)。目前已成功解析果蠅的視覺神經迴路中,上下游的神經連結與編碼模式。

「高速體積成像系統」以高速動態影像研究神經細胞功能上的連結,為建立果蠅的「功能性全腦連結體(connectome)」提供強而有力的工具。

-----廣告,請繼續往下閱讀-----

探入果蠅腦深處,描繪超高解析度的 3D 結構

此外,在結構解析方面,顯微鏡光是能看到神經細胞還遠遠不足。神經細胞有樹突、軸突等向外延伸的纖維,有些纖維寬度只有 100 奈米,當兩條神經纖維緊鄰彼此,需要小於 100 奈米的解析度才能將它們區分開來。而且,神經纖維常常延伸至很遠的地方與其他神經細胞連結,因此顯微鏡的穿透深度,還須深至腦的最底層。

朱士維團隊發表了「深組織超解析光學技術」(Confocal lOcalization deep-imaging with Optical cLearing, COOL),在果蠅全腦中達成 20 奈米的超高空間解析度,剖析腦中神經的細微結構,能分辨出相鄰或彼此纏繞的神經纖維,藉以判斷神經連結的路徑。

三維的神經纖維分布圖像。「深組織超解析光學技術」可將兩條緊密交纏的神經纖維清楚分離開來。右下圖為相同神經與染色,傳統共軛焦影像無法分辨神經纖維的細緻結構。圖/朱士維提供

「深組織超解析光學技術」結合了四個關鍵技術,包含「螢光蛋白標定」、「共軛焦掃描顯微鏡」、「光學組織澄清技術」以及「定位顯微技術」。

「定位顯微技術」是 2014 年諾貝爾化學獎的得獎項目,透過操縱螢光分子輪流放光,再分別計算螢光分子的中心位置,打破光學顯微鏡的解析度極限,大幅提高解析度至接近 20 奈米。「光學組織澄清技術」則是江安世院士發明的 FocusClearTM 試劑,因其獨特的化學配方,讓生物組織各部位的折射率一致,呈現透明狀態。

-----廣告,請繼續往下閱讀-----

朱士維團隊找出可適用於腦組織的螢光分子並改善其放光能力,成功將定位顯微技術應用在果蠅腦,並且透過光學組織澄清技術讓腦組織透明化,減少組織的散射與像差,提高穿透深度,以及利用共軛焦掃描顯微鏡一層一層地掃描不同深度的影像。最終,組合成三維的超高解析影像。

這項技術最厲害之處在於可穿透厚度約 200 微米的果蠅腦,在果蠅全腦皆達成 20 奈米的解析度,可應用在建立果蠅全腦的神經連結網路。

跨領域團隊 開創顯微技術新紀元

這些研究成果仰賴跨領域的團隊,除了朱士維,還有清華大學腦科學研究中心主任、中央研究院院士江安世、中研院物理所副研究員林耿慧、清大工程與系統科學系副教授吳順吉、清大生醫工程與環境科學系助理教授朱麗安、捷絡生技公司執行長林彥穎等人,共同參與研究。

諾貝爾生醫獎得主 Sydney Brenner 曾說:「科學的進展往往是始自新的技術」,腦科學作為 21 世紀科學界的兵家必爭之地,顯微技術的研發重要性不言可喻。朱士維團隊在動態的神經訊號與靜態的神經結構,皆發展出相應的顯微技術,可說是為腦科學領域開拓出令人期待的嶄新未來。

-----廣告,請繼續往下閱讀-----
朱士維團隊開發的兩種顯微技術比較表。圖/沈佩泠繪

參考資料

  1. K.-J. Hsu, Y.-Y. Lin, Y.-Y. Lin, K. Su, K.-L. Feng, S.-C. Wu, Y.-C. Lin, A.-S. Chiang, S.-W. Chu*, “Millisecond two-photon optical ribbon imaging for small-animal functional connectome study”, Opt. Lett. 44, 3190-3193 (2019). 
  2. C. Huang, C.-Y. Tai, K.-P. Yang, W.-K. Chang, K.-J. Hsu, C.-C. Hsiao, S.-C. Wu, Y.-Y. Lin*, A.-S. Chiang*, and S.-W. Chu*, “All-optical volumetric physiology for connectomics in dense neuronal structures”, iScience22, 133-146 (2019)
  3. H.-Y. Lin, L.-A. Chu, H. Yang, K.-J. Hsu, Y.-Y. Lin, K.-H. Lin, S.-W. Chu*, A.-S. Chiang, “Imaging through the whole brain of Drosophila at λ/20 super-resolution”, iScience14, 164-170 (2019). 
所有討論 1
科技大觀園_96
82 篇文章 ・ 1125 位粉絲
為妥善保存多年來此類科普活動產出的成果,並使一般大眾能透過網際網路分享科普資源,科技部於2007年完成「科技大觀園」科普網站的建置,並於2008年1月正式上線營運。 「科技大觀園」網站為一數位整合平台,累積了大量的科普影音、科技新知、科普文章、科普演講及各類科普活動訊息,期使科學能扎根於每個人的生活與文化中。

0

0
0

文字

分享

0
0
0
高感度的新型感光器:像素前的微分光器!
Scimage
・2013/04/21 ・425字 ・閱讀時間少於 1 分鐘 ・SR值 517 ・六年級

-----廣告,請繼續往下閱讀-----

彩色相機一直以來感光的極限都受限於因為要彩色成像,需要有不同的感測區塊加上濾片來測不同顏色的光,所以每個像素上的光很多都被浪費了。

以往的一個解決方式是利用分光鏡把不同波長的光投影到不同的CCD上,所以有所謂三CCD的攝影機。但是這樣的解決方案成本太高,無法普及。現在有公司開發出放在像素前的小分光器,可以把不同顏色的光導向不同的畫素,這樣一來就沒有因未使用濾鏡而被浪費的光,也可以整合進目前的感光元件設計。

這種小分光器的設計是利用光在小結構傳播時有波動的特性,所以不同波長的光的傳播對尺度很敏感,只要經過仔細的光學運算就可以設計出讓不同的光走不同路徑的微分光器。實際的裝置有設計出紅色跟藍色的分光器,可以把紅色跟藍色的光分到周圍的像素,也開發出了新的光學計算軟體。這樣的新型感測器或許有一天就會用在新的相機上,讓相機有更高的感光度跟夜拍的能力!

轉載自 Scimage 科學影像

-----廣告,請繼續往下閱讀-----
文章難易度
Scimage
113 篇文章 ・ 4 位粉絲
每日介紹科學新知, 科普知識與實際實驗影片-歡迎每一顆好奇的心 @_@!

0

0
0

文字

分享

0
0
0
知識大圖解:拆解全片幅數位單眼相機
知識大圖解_96
・2015/01/12 ・639字 ・閱讀時間約 1 分鐘 ・SR值 541 ・八年級

5051
(點擊看大圖)

我們打開Nikon D600,檢查其內部組件

D600是Nikon出產的全片幅數位單眼反射式相機(DSLR),旨在提供消費者一台具備專業性能但價格平易近人的相機。

拜大小為35.9×24公釐的CMOS感光元件所賜,它的畫素高達2430萬像素。與D600價位相近的款式通常感光元件只有其一半或四分之一大,這是由於傳統的全片幅感光元件成本相當高,導致每一片矽晶片可生產的感光元件數量較少。

-----廣告,請繼續往下閱讀-----

以全片幅感光元件擷取的圖像由EXPEED 3成像引擎處理。EXPEED 3是內含多中央處理器(CPU)的媒體處理器,可以執行多重任務,例如色彩再現、灰階處理、影像銳化、伽馬校正和壓縮等。由於有多CPU,EXPEED 3成像引擎能夠平行執行多項任務,因此相機連拍速率可每秒高達5.5張。

與其他同樣高級的全片幅相機相較,D600最重要的特點是它輕便的設計──體積為14.2×11.2×8.1公分,重量也輕。而輕便背後的奧祕在於整合雙SD卡插槽,並選用體積較小的內部晶片和電板。

何謂全片幅?

全片幅單眼相機的感光元件相當於35mm底片的大小,主要優點是以全片幅感光元件拍攝的影像範圍較一般感光元件來得大,因此畫面不會被裁切,拍攝到的角度也更寬廣。舉例而言,一個24mm的鏡頭若是裝在全片幅相機上,則可拍攝到視角84度的影像,而焦距轉換率為1.5的一般相機則只有62度。除此之外,全片幅相機能應用於較大的感光點,進而取得更寬廣的動態範圍與更低的雜訊,因此影像即使過曝仍能保留細節。

-----廣告,請繼續往下閱讀-----

本文節錄自《How It Works知識大圖解 國際中文版》第04期(2015年1月號)

更多精彩內容請上知識大圖解

知識大圖解_96
76 篇文章 ・ 11 位粉絲
How It Works擅長將複雜的知識轉化為活潑有趣的圖解知識,編輯方式以圖像化百科呈現,精簡易懂、精采動人、深入淺出的圖文編排,讓各年齡層的讀者們都能輕鬆閱讀。