2

14
2

文字

分享

2
14
2

目前超夯的 AI 前瞻技術「深度學習」,用手機就可以跟數位替身對話——《 AI 大局》

PanSci_96
・2020/12/24 ・1577字 ・閱讀時間約 3 分鐘 ・SR值 565 ・九年級

-----廣告,請繼續往下閱讀-----

編按:深度學習是目前AI發展的核心技術,特別是在影像辨識和自然語言的處理,最能發揮優勢,本篇文章將介紹最具代表性的深度學習技術和最新的應用案例。

CNN(卷積神經網路)的架構

CNN 原本的設計是用來模仿人類視覺功能,因此影像辨識是其主要的應用,
最近已經逐漸擴大應用範圍,訊號和自然語言處理也開始使用 CNN 了。

卷積神經網路 (Convolutional Neural Network,CNN) 是一種神經
網路模型,常用來處理規則排列的影像資料。CNN 這個名稱是從處理時使
用名為卷積 (convolution) 的數學運算而來。
下圖是 CNN 神經網路的基本架構,從圖中可以看到在輸入層和輸出層
之間,多了卷積層和池化層,兩者可以視為是一種過濾器。

CNN(卷積神經網路)的基本架構。圖/旗標

RNN(循環神經網路)的架構

RNN 與 CNN 都是最具代表性的深度學習模型。RNN 很擅長自然語言處理這類時間序列的資料,近來也常用於物聯網與機器異常檢測的應用。

RNN(Recurrent Neural Network,循環神經網路)是可以處理不定長度資料的神經網路。下圖說明了 RNN 的基礎結構。從圖中可以看出 RNN與 CNN 最大的不同在於,RNN 具有回饋 (Feedback) 機制,也就是在隱藏層中輸入前一次的輸出值 h。

-----廣告,請繼續往下閱讀-----
RNN 的架構。圖/旗標

生成模型與 GAN(對抗式生成網路)——生成影像資料的技術

深度學習不僅可以辨識影像和聲音,也可以用來產生新資料。近年來,用神經
網路來生成文章、影像等技術不斷提升,相關的商業應用正不斷擴大發展中。

機器學習的分類模型有識別模型 (Discriminative Model) 和生成模型 (Generative Model) 兩種。常見的識別模型能預測輸入資料屬於各類別的機率,例如用 CNN 識別影像,並得到像狗 80 %、貓 20 %的機率輸出。

生成模型也會輸出屬於各類別的機率,但會先從大量的訓練資料中,推導出各類別適合的機率分佈,然後在預測新資料時,即可依新資料的分佈結果計算其機率。這裡所謂的機率分佈就如下圖所示,假設資料有 ○ 和 × 兩個類別,依照各類別樣本分佈的情形,就可推測出其機率分佈的範圍,也就是圖中橢圓的部份,而越靠近橢圓中心的資料,有較高的機率屬於該類別。

生成模型與機率分佈。圖/旗標

結合數位替身與 AI 生物辨識的行動銀行

美國的軟體公司 Sensory 多年來持續開發有關語音辨識的嵌入式裝置技術,該公司是使用名為 Virtual Teller 的 AI,開發了適用在行動銀行的解決方案。透過 Virtual Teller,使用者可以如同在櫃檯與服務人員溝通一般,虛擬人員對話同時進行交易。身份認證方面,則使用了語音辨識和人臉辨識的 AI 生物辨識技術以提高安全性。

此外,進行認證的 AI 內建於智慧型手機的應用程式中,因此取得的生物資訊不會上傳到網路。為了與智慧型手機的「數位替身」順暢對話,也搭載了語音辨識和語音合成功能,以提高互動效果。Sensory 透過將 AI 建置於手機軟體中,實現了高安全性且易於使用的使用者介面。

-----廣告,請繼續往下閱讀-----
AI內建於手機,可讓用戶與「數位替身」對話。圖/FINOVATE
文章難易度
所有討論 2
PanSci_96
1226 篇文章 ・ 2337 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
文章難易度

討論功能關閉中。

賴昭正_96
43 篇文章 ・ 56 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

0

0
0

文字

分享

0
0
0
如何讓 Suno 製作出你想要的音樂?四大規則讓你用精準的 prompt 做出心中所想的音樂!
泛科學院_96
・2024/07/04 ・2849字 ・閱讀時間約 5 分鐘

-----廣告,請繼續往下閱讀-----

最近用了跟 Suno 類似的音樂生成服務 Udio 才讓我理解歌曲生成的 prompt 要怎麼寫,然後配合 sonoteller 這個神器,讓你聽到什麼就能生出什麼!

所以我們這集就來講講:

  1. AI 音樂生成 prompt 的規則
  2. 抄音樂 prompt 的好幫手 sonoteller
  3. suno 跟 udio 的差異

提醒一下,這集沒有詳細的 Suno 操作,重點會放在怎麼寫 prompt 上。

這邊整理一下你看這集必須要知道的事,可以暫停看一下:

-----廣告,請繼續往下閱讀-----


那如果想看詳細的 Suno 操作,可以到這支影片:

好啦,讓我們開始吧。

輸入 Suno 的 prompt 只要關鍵字就好?

一開始用 Suno 時,我一直很困惑,到底要怎麼打 prompt 才能有效控制生成的音樂?

自從最近用了 Udio,它有 prompt 隨機生成,研究了一下 Udio 的 prompt,規則大概是「一句有情緒的故事梗概,加上多個曲風或歌曲細節詞彙」。

-----廣告,請繼續往下閱讀-----

然後我把 Udio 的 prompt 拿到 Suno 上跑,也能跑出不錯的東西。

所以,前面應該是指定整首歌的情境?

例如情境換成悲慘命運,聽起來就會變悲傷。

然後我在後面加上輕快 (Brisk)⋯⋯欸?悲傷去哪了?前面那串根本消失啦!

-----廣告,請繼續往下閱讀-----

那如果把前面那句話,拆解成情緒與事件關鍵字輸入也行嗎?

畢竟字數有限,這樣就能下更多 prompt 了!

嗯,事實是沒差,只要關鍵字就好。

所以結論是,音樂生成的 prompt 跟 Stable Diffusion 差不多,一個一個單詞輸入就好。

-----廣告,請繼續往下閱讀-----

四大規則!

在多次測試之後,我認為有效的 prompt 可以分為這四類:

1. 曲風類:funk、rock、pop、classical 之類的特定曲風。

這些詞最重要,會最大幅度限制歌曲的走向,通常會放多個有關聯的曲風,例如 city pop 跟 funk 還有 Disco 有關,我前面的 prompt 就選了 city pop 跟 funk,不用 Disco 單純是出來之後更有電音舞曲感,我不喜歡。

2. 歌曲控制類:B 小調、brisk、BPM 之類的名詞。

-----廣告,請繼續往下閱讀-----

這類名詞只能做到修飾,例如前面的 prompt 加個 BPM 200,也不可能演奏出 BPM 200 的 city pop,只是稍微加快,但如果我把曲風換成 rock, metal,就能接近我要求的 BPM 200。

3. 情緒、狀態類:miserable, adventure 這些日常生活中會出現的詞彙,能提供整首歌曲的旋律、節奏,但效果極弱。

例如前面放了輕快 brisk,悲傷感就消失了。

4. 樂器類:歌曲中有出現什麼樂器。

-----廣告,請繼續往下閱讀-----

你在選曲風的時候,就已經有樂器配置了。像上面的 city pop,就已經預設會有效果器 (Synthesizer),因此就算輸入民謠吉他 (Acoustic Guitar),也聽不到民謠吉他的原聲,滿滿的效果器。

我把上面的重點總結在這裡,有需要的可以停下來看,總之,先找對曲風,才能生出你想要的音樂。

怎麼知道喜歡的歌是什麼曲風?

那這時你可能會問啦,我哪知道自己想生的曲風是什麼啊?

這時就輪到 Sonoteller 登場啦!

-----廣告,請繼續往下閱讀-----

Sonoteller 是分析歌詞與曲風的 AI 工具,只要給他 Youtube 網址就會幫你分析啦。

這樣你就可以在 Youtube 上先找一首參考的歌曲,再丟到 Sonoteller 分析,瞬間就有曲風的 prompt 啦。不過近期 Sonoteller 的伺服器不堪負荷,常會遇到拒絕分析歌曲的情況。

但如果是超流行的歌,例如 Ado 的 Show,因為已經有人分析過,就會直接調之前分析的資料給你。

畫面的左半邊是歌詞分析,因我沒有生成歌詞的需求,這裡就不詳細說,


不過我自己截一些 summary 中的字當 prompt。

右半邊是曲風分析,Genres 就是我們的曲風啦,也有提供副曲風、情緒、樂器、BPM、key 之類的資訊,都可以複製回去當 prompt 用。

後面的數字是相似程度,參考就好,畢竟曲風、情緒感受是很主觀的,

好啦,讓我們聽聽用 ado show 的曲風做出來的歌長怎樣吧。

好像不太對勁,加個 J-pop 進去看看,這個感覺比較對,就先到這邊吧。

也提醒一下,我們不太可能只複製一首歌的 prompt 就得到想要的歌,多放幾首你覺得類似的歌到 sonoteller 分析是個好方法!

配合 ChatGPT 之類的工具來生成額外 prompt 也可以。不過我覺得門檻比 sonoteller 高,而且也不容易搞懂那些詞彙到底代表了什麼。

等等,Udio 和 Suno 到底哪一個好用?

再來說說前面有提到的 Udio 和 Suno 有什麼差吧!

基本邏輯是相同的,但 Udio 的操作更直覺,Udio 有提供 prompt 提示,不僅給我靈感,讓我學到很多新名詞,真的超級多,可能我在學校音樂課學的詞彙都沒有這幾個禮拜學到的多。

還有 Udio 每次生成歌曲只有 30 秒,更容易修改或擴充,它的擴充還可以選擇 intro outro 來生成音樂的開頭結尾,比起suno用起來更順手。

然後現在 udio 完全免費,一個月能生成 600 首,超適合拿來練 prompt!

蛤?你說這集為什麼沒有 Udio 生成的歌?

因為現在 udio 免費生成的音樂不能商用!

所以這支影片,就還是以 Suno 為主啦。

最後,你覺得 AI 生成的音樂聽起來如何呢?

  1. 當背景音樂不錯聽
  2. 匠氣太重,了無新意
  3. 沒感覺,要做的話
  4. 其他也可以留言分享喔

如果有其他想看的 AI 工具測試或相關問題,也可以留言告訴我們~

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

泛科學院_96
44 篇文章 ・ 51 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

1

0
0

文字

分享

1
0
0
動動滑鼠就能生圖修圖?不用付錢就能即時生成的 Leonardo AI 讓繪畫行雲流水!
泛科學院_96
・2024/06/09 ・828字 ・閱讀時間約 1 分鐘

你在尋找免費的繪圖 AI 嗎?

自從 Stable Doodle 要收費後,我就一直在找類似的替代品,正好前陣子 Leonardo AI 也更新了Realtime Canva 功能,不是那個 Canva,是他們推出的塗鴉功能叫 Canva,試用之後驚為天人!

新增加的 inpaint 功能,能用 prompt 指定畫上去的色塊代表什麼,也有圖層跟透明度功能,大幅降低修整圖片的難度。

重點是,免費可用啊,付費只多了 realtime 及時生成,但免費的速度也不會太慢,你問我為什麼會知道?當然是花了錢之後發現根本沒差啊!

而且及時生成的圖都不用扣點,直到你按下輸出鍵才扣,修改次數無限,可以免費白嫖玩到爽,所以今天,就來教一下怎麼用 Leonardo Canva 啦,大概會說這三件事情:

-----廣告,請繼續往下閱讀-----
  1. 從無到有快速生成人物:這邊就簡單介紹基本操作。
  2. 在不影響生成人物的狀況下,加上背景:這邊會用到圖層、去背、AI 元素生成等功能。
  3. 最後微調:介紹 inpaint 功能怎麼用。

好啦,讓我們開始吧!

最後,你覺得 AI 圖片生成應該還要提供什麼服務呢?

  1. 我上色苦手,拜託有個不改我線稿的 AI 上色工具
  2. 可以有更多修改細節的方法,現在都太笨了
  3. 能不能讓 AI 讀懂構圖,不要每次圖生圖都變樣了
  4. 我不知道,能生不就好了

如果有其他想看的 AI 工具測試或相關問題,也可以留言發問。如果喜歡這支影片的話,也別忘了按讚、訂閱,加入會員,我們下集再見~掰!

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

所有討論 1
泛科學院_96
44 篇文章 ・ 51 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!