0

1
1

文字

分享

0
1
1

下棋之外也能看病?淺析台灣人工智慧醫療之發展

Research Portal(科技政策觀點)_96
・2019/07/24 ・4071字 ・閱讀時間約 8 分鐘 ・SR值 589 ・九年級

文/呂宜瑾

從探索、深度學習到圍棋奪勝,人工智慧的歷史與發展

圖/deviantart @agsandrew

「人工智慧」(Artificial Intelligence,簡稱AI),顧名思義是由人類所製造出來的機器(電腦),透過反覆的訓練與學習所展現的智慧。AI內含了「機器學習」、「深度學習」與「自然語言」等概念,且依據電腦能處理與判斷的能力不同,產生不同的分級。

AI發展的歷史,從第一台電腦出現迄今已過半世紀,期間經歷了三波熱潮,前兩次熱潮因受限於當時的技術發展而退燒(曲建仲,2018;盧傑瑞,2018)。

(一)第一波熱潮(1950~1960年):探索與推論的時代

1946 年,全世界第一台電腦Enica誕生,之後的 10 年,在 1956 年達特茅斯研習會(Dartmouth Workshop)中首度出現「人工智慧」 (Artificial Intelligence,簡稱 AI)的專有名詞。

(二) 第二波熱潮(1980~1990年):知識的時代

專家系統:自 1980 年開始,將大量的專家知識輸入電腦中,再由電腦依據使用者的問題來判斷答案,後續應用在疾病的初步診斷。

(三) 第三波熱潮(2000年~現在):深度學習的時代

自 2000 年起,半導體技術的進步,提升了電腦運算的能力;半導體的成本下降,讓雲端儲存的使用變得便宜。而透過雲端伺服器蒐集而來的大數據(Big Data),則成為了 AI 發展最重要的資源。

圍棋是目前最複雜的棋,本文作者估計可能的盤面狀況約有10170種。圖/wikipedia。
圍棋是目前最複雜的棋,粗估可能的盤面狀況約有10^170種。圖/wikipedia

2016年,Google 開發的人工智慧 AlphaGo,打敗南韓棋王李世乭後,讓 AI 的發展再次受到重視。2018 年,美國國際研究暨顧問公司 Gartner「十大技術趨勢」報告中指出,AI技術是近年科技發展的重要目標,並預估 2018 年 AI 相關產業年產值達 1.2 兆美元,相較前一年成長 70%,2022 年相關產值則達  3.9 兆美元(Kasey Panetta, 2017;Gartner, 2018)。

而最新一期 2019「十大技術趨勢」報告中,除了原有 AI 技術外,其餘 AI 衍生或是相關技術也名列其中,可能在未來 5 年內快速成長,對於人類生活、產業發展、科學技術更有機會帶來顛覆性的影響(Gartner, 2019)。

進入「深度學習」時代的 AI 醫療應用

圖/fshoq

依據美國市調機構 CB Insights 的調研結果,從投資趨勢來看,自 2013 年起,美國 AI 醫療新創投資件數共 576 件,募資金額超過 43 億美元,位居 AI 新創相關產業募資首位,而 AI 醫療募資之案件數,也於 2018 年第二季達新高峰,AI 醫療受矚目的程度,可見一斑(Kyle Wiggers, 2018)。

AI 醫療的應用,進入「深度學習」的時代,除了將大量生理資訊輸入電腦,透過拋轉、整合、計算與紀錄,作為醫護團隊預測參考依據外,目前較主流的應用仍為醫學影像辨識。以台灣為例,國人每年平均看診次數約為 15 次,所累積的處方簽高達 3 億 6 千萬張;每年約有 200 萬人次使用電腦斷層與核磁共振等影像檢查,以肺部電腦斷層掃瞄為例,每進行一次電腦斷層掃瞄便可產生 500 張影像,一位有經驗的醫師進行初步篩選至少就要花 20 分鐘。

醫療技術的進步,讓診斷更為細緻,疾病的分類則變得更為複雜。傳統影像辨識,靠的是醫師肉眼的判斷與經驗,一旦醫療數據增多、辨識時間拉長,長時間的工作帶來的疲乏,加上疾病的高複雜度,使醫師犯錯的機率提高(王若樸-c, ,2019; 基因線上,2018)。

醫療影像辨識的發展,可追溯到 2012 年,由 Google 所建立的 ImageNet,一個開放使用的圖像辨識測試數據庫,參賽者將深度學習應用到ImageNet,使圖樣辨識準確度高達 85%,在當年電腦視覺比賽中奪冠,確認了深度學習在影像辨識的可行性。2016 年,Google 旗下的科研機構,發表了第一篇由機器深度學習進而提早發現糖尿病視網膜病變的論文,透過糖尿病患視網膜的影像辨識,早期偵測病變預防失明,技術研發成果後續將佈署於印度等眼科醫師缺乏的國家。

圖/pixabay

台灣實施全民健康保險迄今已 24 年,病歷電子化也即將邁入第 10 年,巨量的醫療數據累積,成為台灣發展 AI 醫療的利基。分析醫療數據的組成,除了基本的生理資訊外,絕大部分就是各類的影像資料,包含:X光片、超音波、核磁共振、電腦斷層、病理切片等。影像辨識技術的發展,除了要足夠的影像資料來「訓練」電腦,從數據獲取→分析→建立模組,最後才能回答問題或是預測未來。

過程中要如何讓電腦得到經驗,「理解」資料的特徵,達成「特徵表達學習」靠的就是專家知識的輸入,透過一群醫師針對影像進行標記,建置模組後再用影像試驗,並進行校正,影像標記是建立模組原型最重要的基礎,也會影響影像預測的準確性。目前AI醫療影像辨識的應用,也已逐漸在台灣發展,相關案例如下(王若樸-a,2019):

  1.  乳房超音波 AI 輔助分類系統:早期發現,腫瘤辨識度達 9 成,但良性、惡性的辨識度約 7 成。
  2. AI 骨齡輔助判讀系統:準確度可達 9 成 5。
  3.  DeepMets:人工智慧腦瘤自動判讀系統,30 秒就能圈出病灶,還能自動計算腫瘤體積。

當然,開發中的醫療影像辨識技術遠比上述的例子多更多。2017 年科技部為了推動國人醫療影像在地化,建置 AI 醫療影像資料庫,提出「醫療影像專案計畫」。次年(2018)年底,台灣首座「AI 醫療影像」資料庫上線,15 類疾病,共 4.6 萬筆影像,目前已有 1/3 完成疾病辨識,資料庫影像開放供很多團隊一同開發演算法,目前有台大、北榮及北醫等團隊參與(吳元熙,2018)。

AI醫療不止步於影像辨識,還需發展文字語意辨識與分子生物檢測

圖/pixabay

醫學影像的辨識難度,會與最終影像的辨識準確度有關,除了需處理的影像數量多外,以肺部為例,其影像有很多血管紋,血管橫切面與肺結節十分相像,增加辨識難度。另外,以開發數位病理AI聞名的雲象科技為例,顯微鏡底下的病理切片影像,又是另外一個層次的首先面臨到的困難,就是病理切片影像傳換為數位影像,解析度非常高,超出電腦的運作能力,必須裁切成小區塊來訓練,以建立模組。初步完成鼻咽癌 AI 模組,自動標示癌症的高風險區,準確度達 97%。全新挑戰則是全球幾乎沒有人在做的數位病理 AI-血癌偵測模組,需辨識近 40 種不同種類或成熟度的骨髓細胞(王若樸-b,2019)。

然而,AI 醫療的應用,不僅止於醫療影像辨識,目前正在發展的還包含文字與語意辨識、分子生物檢測等。以文字與語意辨識為例:全球首建肺癌病灶語意描述資料庫,過去的診療經驗,最關鍵的往往是問診的語句,其中夾帶足以判斷疾病的關鍵,卻無法單純從影像或是病歷中察覺。因此,除了既有的影像病灶標記外,北醫附醫的研究團隊更嘗試加入病灶語意描述,希望藉由AI的協助,讓醫師早一步發現肺癌。

以分子生物檢測為例,藉由目前生物技術的發展,病人基因檢測或蛋白質體學檢測等變得相對容易,依據過去疾病的文獻研究,某些疾病的發生或是疾病發展的進程,可能與基因突變(或遺傳)或基因表現異常有關,如果能藉由病理數據、影像與基因變異之間,建立相關性的分析模組,希望進一步能達成降低早期風險或疾病的發生,或是預測病人預後狀況等。

華生以相當精密的問答系統作為基礎模板。圖/wikipedia

AI 醫療的應用,可以藉由深度學習來增加準確度,而電腦學習的模式,必須由專家知識的輸入(給予框架或答案)來決定模組的原型,目前醫事人力的短缺,是阻礙AI醫療發展的原因之一。另外,AI 於醫療之應用與其他產業的差別在於,醫療往往沒有標準答案,還有太多的例外,以及一些「只能意會、無法言傳」的醫師經驗累積,這些都會影響電腦的訓練結果,以及最終診斷的準確度與一致性。

醫療領域最知名的 AI 應用,就不能不提 IBM 的超級電腦-華生(Waston),主要以自然語言訓練,從2011年發展至今,華生的腫瘤系統已在全球超過 230 家醫院使用,而近年華生醫生的發展聲勢卻持續下跌,原因出在:

  1. 華生雖透過大量文獻資料、診斷紀錄等訓練,但效果仍與醫師診斷有著很大的差距,例如:對於醫療方法的選擇,無法提出具體而合理的解釋,更可能因為無法通盤考量病患條件,而做出不適切之診斷,顯見其電腦學習資料量不足;
  2. 另因應疾病與醫療的變化,須輸入新資料供系統學習,而新舊資料整合不易且所費不貲,這些臨床應用的瓶頸,終將讓華生輪為第二、第三線的醫療諮詢系統,或是為節省成本而捨棄不用,這些都必須在AI醫療的發展與應用上,引以為鑑(陳苓,2017)。
  3. 最後一點,卻也是最重要的,便是相關法規及配套措施,包含技術開發與資料管理規範,建議相關部會積極主動研議,並透過跨部會合作,提出具體規範,才能讓台灣的 AI 醫療發展得更為順利(王郁倫,2019)。

參考文獻

文章難易度
Research Portal(科技政策觀點)_96
10 篇文章 ・ 7 位粉絲
Research Portal(科技政策觀點)為科技政策研究與資訊中心(STPI)以重要議題導向分析全球科技政策與科技發展趨勢,呈現研究觀點與產出精華。

0

0
0

文字

分享

0
0
0
是什麼蒙蔽了我的雙眼?如何防範生成式 AI 的假資訊陷阱?——專訪中研院資訊科技創新研究中心副研究員陳駿丞
研之有物│中央研究院_96
・2023/09/24 ・5782字 ・閱讀時間約 12 分鐘

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|沙珮琦
  • 責任編輯|簡克志
  • 美術設計|蔡宛潔

不再是有圖有真相!深偽影像猖獗,我們該如何判別?

你看過美國前總統川普被警方逮捕的影片嗎?又或是英國女王在皇宮中大跳熱舞的片段?多年來,人們普遍相信著「有圖有真相」的道理,然而,隨著圖像與影音相關的生成式 AI 越發成熟,我們似乎再也不能輕易相信自己的雙眼。而在真假影音的差異可說是微乎其微的狀況下,我們究竟該如何判斷資訊真實性?中央研究院資訊科技創新研究中心的副研究員陳駿丞與團隊每天在尋找的,便是有效又好用的解決方案。本次,中研院「研之有物」將透過專訪,從生成式 AI 的原理開始了解,一步步為各位解開深偽影像的神秘面紗。

你已經是個成熟的 AI 了!幫我工作!

一講到生成式 AI,許多人都能立刻喊出「ChatGPT」的大名,足見這個領域之熱門程度。其實,生成式 AI 發展並不是近年才開始的事,可是為什麼直到最近,才受到社會大眾的熱烈歡迎呢?

中研院資創中心的陳駿丞副研究員認為,其中最關鍵的原因,莫過於 AI 程式的優秀表現開始讓一般人很「有感」。由於生成式 AI 的相關研究快速發展,基礎建設在近年來逐漸成熟,使用介面也設計得十分親民,讓大眾能透過極為直覺、簡單的方式去使用,實際體會到應用的效果,例如改善工作效率、處理圖像任務等,再加上大眾媒體的渲染,便帶起了 2023 前半年的 AI 風潮。

陳駿丞笑著說,雖然自己不是文字生成式 AI 的專家,但使用「ChatGPT」時,也發現到它真的能做到很多事,比早期的 Siri 效果更好、更準確。的確,對於我們來說,這款基於 OpenAI 開發的大型語言模型(Large Language Model)的聊天機器人(Chatbot),就彷彿是一個全能小秘書一般,可以整理文案、改錯字,甚至連寫程式碼都不在話下。

場景轉換到影像領域,如今市面上也有同樣由 OpenAI 打造出的圖像生成平台「DALL·E 2」,或是大名鼎鼎的「Midjourney 」,都可以很有效率的將使用者文字描述轉換成圖片。雖然這些平台生成的內容偶爾還是會出現「破圖」的情況,例如頭髮少一塊,或是出現奇怪色塊等,但它們的生成速度極快,也能產生不少令人印象深刻的高品質內容;對於一般大眾而言,自然充滿吸引力。

陳駿丞解釋,過去也有許多以文字產生圖片的嘗試,但品質並不佳,而現在之所以可以顯得如此真實,便是借助了「擴散模型」(Diffusion Model)的強大威力。大約 2019 年左右,「擴散模型」逐漸超越了原本主流的「生成對抗網路」(Generative Adversarial Network,GAN),吸引大量研究人員投入,也因此衍生出「Midjourney」這類的圖片服務,打個字、按個鈕便能生成美美的圖片。進階使用者還可以輸入如同咒語般長的自訂提示詞(Prompt),生成符合需求的圖片,甚至還有人專門訓練生成提示詞的 AI,各種 AI 藝術社群也如雨後春筍般成立。

提示詞給的資訊越多,就越有機會用繪圖 AI 生成想要的客製化圖片。
圖|研之有物(資料來源|Midjourney)

神奇 AI 訓練師——「擴散模型」與「生成對抗網路」

等等等等,什麼是「擴散模型」?什麼是「生成對抗網路」?想了解兩者的不同,讓我們先從比較「資深」的那個開始說起。

所謂「生成對抗網路」,其實是由兩個網路所組成的,分別是「鑑別網路」(Discriminating Network)與「生成網路」(Generative Network)。這兩者間的關係就像是考官和學生(亦敵亦友!),學生(生成網路)要負責把圖生出來,交給考官(鑑別網路)去判斷這張圖跟真實圖片的分布究竟像不像,像就給過、不像就退回去砍掉重練。

至於考官(鑑別網路)為什麼能如此精確呢?因為研究員會預先餵給它真實的圖片,好協助鑑別網路做出足夠專業的判斷、給予精準回饋。而學生(生成網路)則在這一次次「交作業、修正、交作業、修正」的過程中,畫出越來越接近真實模樣的圖片。

生成對抗網路的概念比喻圖,生成網路與鑑別網路這兩組神經網路會相互訓練,生成網路所產出的圖片會越來越接近鑑別網路的目標,差異越來越小。
圖|研之有物(資料來源|李宏毅

相比起 GAN 對錯分明、馬上定生死的特點,「擴散模型」採取的路徑相對而言非常迂迴,但是結果更為精準,如果採用知名電腦科學家臺大電機系李宏毅教授的比喻,擴散模型就像是從一塊大石頭裡面刻出大衛像,圖片就在雜訊當中!

「擴散模型」在訓練期間的第一步是加噪(add noise),以貓為案例來說,擴散模型的原理就是將一張正常的貓咪圖片,用統計方法取樣出一張特定大小的雜訊圖(例如 512*512),過程中研究人員會控制參數去加上高斯雜訊。第二步是去噪(denoise),透過減去預測的高斯噪聲,得到乾淨的原貓圖。模型訓練的越好,預測的高斯噪聲量越準。

訓練好之後,「擴散模型」在輸出的時候,為了輸出符合使用者文字指令的貓咪圖片,模型會從隨機的雜訊圖開始,應用訓練過程的去噪器,像物理的擴散過程一樣,逐漸改變每個像素點的值,反覆去掉噪點,得到最後新的貓咪圖。

如果有用過 Midjourney 的人,應該也會發現 AI 收到文字指令開始產圖的時候,是從一張模糊不清的圖片,一顆顆像素逐漸改變,變成你要的圖。

擴散模型透過加噪和去噪來訓練模型,利用去噪來生成圖片。實際生成圖片的過程,就是逐步去除噪聲的過程。
圖|研之有物(資料來源|李宏毅

陳駿丞指出,由於這些噪聲都是研究員自己加的,所以控制度極高,也可以掌握其中細部的變化過程。而這種「保姆式」訓練法,最大的好處就在於:擴散模型是一種漸進式學習的過程,因此對於細節的掌握度將會更高。

陳駿丞提到,兩種方式的訓練時間其實差不多,但以執行時間來說,「擴散模型」會比較久一點,因為需要慢慢摸索,而 GAN 則是幾乎一步到位。不過,雖說處理時間可能較長,「擴散模型」卻也因為訓練比 GAN 更穩定與更全面這份特質,可以訓練很大的資料集,也能生出較為豐富多元的成果。

侵權與假消息——生成式 AI 的負面影響

能生出細膩而接近真實的圖乍聽之下是好事,但它同時也是一把雙面刃,可能伴隨著侵害智財權、製造假消息等等負面效應。

在訓練生成式 AI 相關模型時,必定需要大量的資料做為參考,而以 AI 繪圖來說,許多資料其實是未經授權的網路圖片;假設宮崎駿的圖片被盜用去訓練開源模型,那這些生成式 AI 後來生出的圖可能就會帶有宮崎駿的風格或曾經畫過的元素,這樣是否會帶來侵權或抄襲的問題?是我們必須思考的重要課題。

而說到假消息,就一定得談到值得關注的「深偽」(Deepfake)技術。雖然這個詞很容易讓人聯想到一些負面的事件,比如新聞報導網紅小玉用深偽技術製作不雅影片。然而,陳駿丞澄清,深偽技術最常出現的場域其實是在電影工業中。其中,最知名的應用,莫過於《玩命關頭》系列電影,在拍攝期間主角保羅沃克不幸意外離世,劇組便透過電腦合成影像技術,讓主角的弟弟替身上陣,主角身影得以再次與觀眾相見。

用你的魔法對付你!反制深偽影像的 AI

深偽技術若運用得宜,便是賺人熱淚的神器,反之,卻也可能成為萬人唾罵的幫兇,面對這樣強大的工具,難道我們只能乖乖束手就擒嗎?才不!既然 AI 如此強大,那我們就訓練 AI 來對付它!

陳駿丞分享道,反制深偽影像常用的方法便是訓練「二元偵測器」,藉由蒐集大量真實與偽造影像資料去訓練 AI,讓它得以判斷影像的真偽。然而,深偽有很多種,而二元偵測器對於沒有看過的資料,表現會大打折扣。

過去人們是用 GAN 來生圖,現在是用擴散模型來產圖,未來也有可能出現新的方式,想要找出一個一勞永逸的方法,其實並不容易。

陳駿丞認真地說,深偽偵測的過程,其實很像在研發一套「防毒軟體」,防毒軟體很難永遠跑在病毒前面,大多是遇到病毒再往下思考解方。但是,面對這樣的情況也不用完全悲觀,因為訓練偵測模型可以透過「非監督式」和「自監督式」等方式去進行模擬,進而得出比較能廣泛應用的工具。

除了偵測深偽的錯處之外,我們也可以針對訓練資料動點手腳,像是加上一些「浮水印」。許多生成式 AI 的訓練資料來自圖庫圖片,其中許多圖片自帶防盜浮水印,假設 AI 蒐集了這些素材,往後生成的圖片中可能就會出現「版權所X」等等字樣。

而我們能做的,便是為訓練資料加上肉眼看不見的浮水印。比如說,在影像領域中,伽碼(gamma)指的是用來編(解)碼照度的非線性曲線,我們可以偷偷將浮水印藏在人眼看不見的伽碼範圍中,唯有調整到特定區域,才能看見浮水印。聽起來是不是很像我們小時候用檸檬汁玩的隱形墨水呢?

同樣是浮水印,我們也可以將它藏在人眼比較不敏感的頻率中,然後偷偷放去圖片中邊邊角角的地方,讓人眼看不出來。 加入浮水印後,我們就可以進一步訓練偵測器去尋找浮水印。假設偵測器能在圖上面找到浮水印,那就可以藉此推斷圖的真偽。

而相對偵測、加浮水印等等「補救」的方式,假設我們已經掌握了一些模型的架構,便能透過添加「對抗樣本」(Adversarial Examples),直接攻入生成式 AI 的大本營,讓這些深偽 AI 只能生出一些亂七八糟、毫無邏輯的圖片,或是強迫生成特定的圖案。例如找出幾個常用、能進行臉部特徵操作的 GAN,針對它們研發相關對抗樣本,如此一來,只要加入了團隊開發的噪聲,便能同時打壞這幾種 GAN 的生成。

對抗樣本是防禦深偽模型的有效手段,干擾深偽模型的影像生成。
圖|研之有物

假消息滿天飛怎麼辦?交給深偽影像偵測器!

這麼看下來,深偽偵測若想做得好,需包含的面向又多又廣、還很複雜,但請各位別緊張,陳駿丞與中研院、臺灣大學、臺灣科技大學、成功大學、中央大學以及國家高速網路與計算中心其他教授與研究員共同組成的研究團隊,最近才剛打造出一款泛用性相對較佳的「深偽影像偵測器」,團隊其他研究成員包括王新民研究員、曹昱研究員、花凱龍教授、許志仲教授、許永真教授、蔡宗翰教授與國網的郭嘉真研究員。

這款偵測器以慕尼黑工業大學和義大利拿坡里費德里克二世大學共同提出的偽造人臉資料庫「Face Forensic++」為基礎,透過自監督的方式去產生出深偽的各式可能形式。

團隊是如何訓練偵測器的呢?具體的運作方式是:先偵測輪廓、產生一個「面罩」去界定人臉的位置;接著,再讓偵測器透過些許微調去模擬深偽影像的特徵;再來,將這些「模擬的深偽影像」丟回去當作訓練資料。經過訓練的偵測器便能大幅升級,可以根據顏色、頻率、邊緣特徵等等參數,去判斷影像的真偽,甚至可以幫這些深偽影像區分難度呢!

影片是陳駿丞與團隊的深偽辨識成果,這裡設定為辨識 Deepfake 模型。看到紅框了嗎?數值越小,就表示圖片是深偽的可能越高,這個工具不僅能告訴你影像的真假,甚至能針對顏色、頻率、調整程度做出判斷。
圖│研之有物(資料來源│陳駿丞)

聽起來,這樣的偵測器已經很完美了?陳駿丞笑著說,這樣的內容一經發表,偽造資訊的一方可能又會想辦法繞過這些地方,對雙方來說,這就是場永無止盡的攻防戰,對此,陳駿丞表示,團隊想要完成的,便是:

盡量提供一個比較完整的解決方案,提供普羅大眾各種可能的工具,盡可能讓大家的資料不會被偽造,並幫助他們偵測。

陳駿丞笑著說,在發表深偽偵測的研究內容之後,偽造資訊的一方肯定又會想辦法繞過,這是一場永無止盡的攻防戰。
圖|研之有物

深偽技術防護罩——對所有事保持懷疑

這一份深偽影像偵測器凝結了眾人的心血,陳駿丞很期待未來偵測器正式上線後,能透過國家高速網路與計算中心設計的好用介面讓大家方便操作,在詐騙防治方面盡一份心力。同時,也期待各界看到這個工具的潛力,願意成為堅強的支持力量。

那在這麼好用的工具正式上線之前,我們又該如何去判斷影片的真假呢?陳駿丞傳授了我們一些獨家小絕招:首先:注意「姿勢」,深偽影片可能會出現一些不自然的怪異姿勢;其次,可以關注「背景」,比如突然出現裂痕之類的;再來,也要看看「衣服」等等細節,可能會發現破圖的蹤跡。而影片若是出現側臉時,也比較容易發現瑕疵,比如說頭髮動得很怪、眼神不對、牙齒沒牙縫等等。

另一方面,如果影像的解析度太低,也會影響深偽偵測的準確性,所以,對於太過模糊的圖片、影片,都應該格外小心。

陳駿丞也提醒,隨著相關造假技術日臻成熟,圖片、影片中的細微瑕疵將會越來越難以察覺,這時候,一定要謹記以下原則:

不能像以前一樣看到影片就覺得是真的,還是要抱持懷疑的態度。

假設看到一些違反常理或「怪怪」的內容,一定要多方查證,絕不可以馬上就相信。

讀到這裡的各位,想必已經被陳駿丞裝上了一套強而有力的「深偽防毒軟體」,希望大家帶著這層防護罩,在生活中遠離虛假、靠近真相!(p.s. 要記得定期更新啊!)

陳駿丞與實驗室成員合影。未來他們將和國網中心合作,正式推出深偽偵測辨識平台。
圖|研之有物
研之有物│中央研究院_96
285 篇文章 ・ 2910 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

1

1
1

文字

分享

1
1
1
AI 做簡報又更簡單了!只輸入網址,Bard 就整理好線上論文?
泛科學院_96
・2023/08/20 ・689字 ・閱讀時間約 1 分鐘

超誇張,只要貼上網址,Google Bard AI 把網頁內容變成簡報,這這這我還能不變心嗎?

之前有一支影片分享了 ChatGPT 結合 Power Point 的簡報製作技巧。

在 Bard 大更新之後,運用網頁瀏覽的功能,不管是線上期刊還是論文,轉換成簡報更加的方便,根據我自己的測試,只要五分鐘,從一篇網路上的論文就可以快速的變成一份漂亮的簡報,這真是懶人救星啊!

今天簡單的分享了 Bard 支援連接網路之後的論文摘要功能,並且回應之前影片網友遇到的內容大綱轉簡報的製作問題,希望這支影片能解決你的問題

看完影片之後你覺得 Bard 的哪個功能最讓你驚艷或驚嚇呢?

  1. 拳打 ChatGPT 的連網功能
  2. 腳踢 ChatGPT 的內容準確性
  3. 豪奪網站的資訊內容
  4. 巧取生成錯誤資訊魚目混珠

如果你有更多的想法與問題,歡迎加入泛科學 AI 的 Discord 論壇,我把連結放在影片下方資訊欄。

如果這支影片對你有幫助的話,請幫我在影片下方點個喜歡,或是透過超級感謝展現你的心意,讓我製作更多實用有趣的 AI 教學影片,最後別忘了訂閱泛科學院的頻道,我們下支影片再見囉。

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

所有討論 1
泛科學院_96
5 篇文章 ・ 7 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

0

1
1

文字

分享

0
1
1
隨手塗鴉給 AI,就秒生出10種風格畫作!完全免費手機也能用
泛科學院_96
・2023/08/19 ・688字 ・閱讀時間約 1 分鐘

你跟我一樣是靈魂畫手嗎?

在工作上總是花很多時間處理簡報或商品圖片,好想要一位設計師小天使嗎?

今天的影片我要來跟你分享 Stability 公司最新推出的 AI 圖片生成工具,它可以讓你直接利用自己的塗鴉生成作品,亂畫的塗鴉也可以喔!而且使用完全免費,每天最多可以讓你製作 400 張圖片,是不是很吸引人呢?

我最近的演講授課簡報製作完畢之後,打算再花個五分鐘,專門設計一張符合主題的影片封面圖,就讓我簡單來測試給各位看吧。

今天簡單跟各位分享了使用 Stability 公司近期推出的三個 AI 圖片工具,在免費且開放的架構下,加上好用的 APP 介面,我都認真思考是否該停用 Midjourney 了,你覺得未來的文字生成圖片 AI 誰會最終統一天下呢?

  1. 煉獄大哥才沒有輸 (deep),Midjourney 大哥才沒有輸
  2. 我大 Stability 公司手持開放大旗,終將八紘同軌
  3. 普天之下皆有我 Azure OpenAI 恩澤廣被

如果你有更多的想法與問題,歡迎加入泛科學 AI 的 Discord 論壇,我把連結放在影片下方資訊欄。

如果這支影片對你有幫助的話,請幫我在影片下方點個喜歡,並且把這支影片分享給需要的朋友,最後別忘了訂閱泛科學院的頻道,我們下支影片再見囉。

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

泛科學院_96
5 篇文章 ・ 7 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!