0

14
0

文字

分享

0
14
0

AI 讓羽球訓練更聰明!智慧球拍上手,揮拍「爆發力」一測就知道

科技大觀園_96
・2021/10/18 ・3852字 ・閱讀時間約 8 分鐘

-----廣告,請繼續往下閱讀-----

「啪!」「啪!」在臺南新豐高中的羽球場上,球拍強力揮擊的聲響不絕於耳,幾位選手正奮力廝殺著。但這場羽球賽有點不同,因為旁邊還架著一具電視螢幕,而選手手上的球拍也不太一樣。練習賽結束後,教練與選手聚集在螢幕前,對著螢幕上的揮拍速度、爆發力指數等數據,熱烈地討論了起來。

會出現這麼特殊的景象,是因為新豐高中的羽球隊從去年(2019年) 5 月起,開始做為科技部計畫「從中樞系統建構雲端 AI 運動訓練歷程分析與疲勞診斷系統:以羽球項目為例」(以下簡稱「AIOT 智能羽球訓練模式」)的實驗基地,而這個計畫由成功大學體育健康與休閒研究所特聘教授蔡佳良領軍,希望利用人工智慧,將羽球的訓練科學化,達到最有效精準的訓練效果。

這項計畫包含五個部分,包括智能球拍、智能手錶、高速攝影動作捕捉,以及雲端 AI 運算中心和顯示各項運動與生理數值的 APP。智能球拍、智能手錶、高速攝影負責收集運動資訊,將資訊以 Wifi 網路上傳到雲端的 AI 運算中心計算後,結果呈現在電腦螢幕及專用的手機 APP 上,讓教練與選手一目了然。 

AIOT 智能羽球訓練模式計畫所研發的智能球拍、感測晶片、智能手錶,以及專用的 APP。圖/簡克志攝

 計畫中使用的雲端計算中心是成大電機系教授王振興所主持的人工智能數位轉型研究中心 ,智能球拍、手錶等裝置不斷上傳的資料,會持續訓練 AI 演算法自身,讓演算法變得愈來愈精準。

-----廣告,請繼續往下閱讀-----

為了讓訓練過程面面俱到,蔡佳良組了一支跨領域的「黃金陣容」,除了專研腦波與眼動的自己外,還找了工程專業的成大電機系教授王振興、負責 AI 演算法的逢甲大學自動控制工程學系副教授許煜亮、專研運動傷害的成大物理治療系副教授蔡一如,每位成員的專業領域都不一樣,在計畫中各司其職。

計畫團隊主要成員,左起許煜亮教授、蔡佳良教授、蔡一如教授、羽球教練李宜勳,另外還有成大電機系教授王振興(未參與合影)。圖/簡克志攝

聰明的智能球拍

計畫中的一大重點,就是選手手上那支「智能球拍」,它可以收集選手的揮拍力道、轉動角度等數值,經過計算後,能知道揮拍速度、軌跡,還能分辨出九個不同的球種,這是因為球拍的握把中藏了一個感測晶片。

智能球拍的握把中藏著感測晶片,底部有接線孔以及 2 個 LED 指示燈。圖/簡克志攝
當選手用智能球拍揮拍時,系統可以得知選手揮拍的加速度、拍子轉動的角速度等運動數據。圖/簡克志攝 

在握把中放入感測晶片就能做到,聽起來很容易,但在羽球拍上卻沒那麼簡單。蔡佳良說:「羽球選手對球拍的重量可是很要求的,一般選手使用的球拍大約 80 幾克,重一點輕一點,手感就差很多了。」而一個晶片動輒 10 幾克,直接放上球拍,不但影響重量,還改變了球拍的重心位置,「這樣的球拍沒有人會想用。」蔡佳良說。

後來,蔡佳良找了勝利體育公司合作,在以碳纖維為材料的握把中納入晶片,並盡量減少晶片重量,才做出了目前的智能球拍。蔡佳良說:「不過我們還是想再縮小晶片的重量,看看是否能讓晶片的電池小一點,希望能將球拍再減少 5 公克左右。」

-----廣告,請繼續往下閱讀-----

你累了嗎?疲勞狀態對訓練來說很重要!

有了能收集選手打球狀況的智能球拍還不夠,蔡佳良還希望能將選手的「疲勞狀態」也納入訓練的參考,這也是接下來 AIOT 智能羽球訓練模式的發展重點。

蔡佳良與蔡一如指出,疲勞分成「中樞神經疲勞」與「周邊神經疲勞」,中樞神經疲勞反應在腦的專注力、心理上的鬥志等,例如比賽時間過長,或是選手心態上已經認輸等,這可以從選手的腦波及眼動訊號來判斷;而周邊神經疲勞則反應在肌肉的動作,例如選手的移動腳步可能變慢、揮拍動作變小等。此外,長時間受訓練的選手也可能慢性疲勞,儘管身體好像沒怎麼樣,但可能一早起床就覺得特別累,不想練球等。

分析選手的疲勞狀態,還可以進一步預防選手受傷,在選手有一點點受傷徵兆時,例如動作稍微改變時,就及時察覺,讓選手休息或就醫,這對於延長選手的運動生涯來說是很重要的。

你的疲勞,AI 比你先發現

為了偵測選手的肌肉疲勞狀況,重建選手的動作也是這次計畫的重點之一。蔡佳良說:「一般來說,我們是用『光學式動作捕捉系統』來重建選手的運動姿態。」這是一套專門的系統,選手的身上會貼滿光點,由四面八方的攝影機拍攝光點的移動,來重建選手動作。「不過這套系統太昂貴了,」蔡佳良說:「因此我們希望用一般的高速攝影機來取代。」方法是先以光學式動作捕捉系統找出界定選手疲勞與否的標準(稱為黃金標準),再將黃金標準與高速攝影機的影像共同輸入電腦,訓練電腦以高速攝影機的影像重建選手動作,並判別選手疲勞狀態。

-----廣告,請繼續往下閱讀-----
蔡一如正在選手身上貼感測用的光點,準備以光學式動作捕捉系統重建選手的動作。圖/簡克志攝
電腦重建模擬選手的姿態及動作。圖/簡克志攝
左右畫面皆為電腦重建模擬選手的姿態及動作,左邊是感測器建立的人物模型,右邊同步對應到現場攝影機的實際圖像。圖/簡克志攝

 蔡佳良補充說:「等到我們把高速攝影機這一塊做起來,就會推廣到一般球館。」換句話說,未來一般民眾在運動中心等球館打球時,或許就能透過場館附設的高速攝影機,看見自己的動作及打球狀態,雖然不是職業選手,也可以研究自己的動作,享受運動科技帶來的好處。

智能手錶則由選手整天佩戴著,記錄選手日常的心跳及睡眠狀態,教練可以據此觀察選手生理狀況,也能輔助判斷疲勞狀態。計畫中使用的智能手錶由王振興研發,蔡佳良表示:「我們自己研發而不採用市面上的手錶,這樣可以依據我們的需求來收集資訊,也可以避免個資外洩的問題。」 

智能手錶可以 24 小時記錄選手的生理狀況。圖/簡克志攝

至於中樞神經的疲勞,可以透過腦波與眼動的狀態來發現,這也是蔡佳良的研究專長。但是蔡佳良說:「我們若要收集這些訊號,得讓選手戴上特製眼鏡,並在頭上貼特殊的貼紙,這會對選手打球造成影響。」因此,蔡佳良希望先將腦波及眼動的訊號,和智能球拍的感測訊號做連結,找出彼此的關聯,建立一個演算法,再將這個演算法寫入智能球拍的晶片中,「如果我們的演算法夠強,球拍感測訊號與腦波、眼動的關聯準確性夠高,就能直接從球拍的訊號,計算出選手的中樞神經疲勞狀況。」

學術與運動的跨領域溝通

AIOT 智能羽球訓練模式發展到目前的階段,已經可以從智能球拍的訊號,計算出個別選手的最快揮拍速度、最大擊球力道,以及爆發力、攻擊力、反應力等指數,蔡佳良笑說:「我們和教練也有一段磨合的過程,因為我們做研究的,想的都是怎樣的數據合適發表,卻不一定是教練真正需要的。」

-----廣告,請繼續往下閱讀-----
智能球拍感測到的訊息,經由雲端的 AI 計算中心計算後,轉化為各種淺顯易懂的能力指數,讓教練與選手一目了然。圖/簡克志攝

 新豐高中羽球隊的教練李宜勳也對此舉例:「一開始蔡教授的團隊提供過一個數據叫做『積極度』,判別的方式就是一場雙打比賽中擊球次數多的,就是比較積極。可是事實上,我們比賽的時候,會故意將球打給比較弱的選手,所以他們的擊球次數自然比較多,這不代表他們比較積極。」

不過,李宜勳認為將 AIOT 智能羽球訓練模式納入訓練,對選手的練習的確有幫助,「有時候教練說破了嘴,還不如數據直接攤開來看。」李宜勳笑說。看到明確的數據,選手之間也會有正向競爭,覺得不想輸給同儕,對於自己的動作或缺點也有更明確的認識。

運動訓練科學化

儘管 AIOT 智能羽球訓練模式還未真正完成,但蔡佳良對於這項研究的未來發展深具信心,他說:「我們的研究成果在其他有球拍的運動上都可以應用,例如網球。」

蔡佳良並且認為,運動科技的蓬勃發展下,未來的運動訓練一定也都會走向科學化。「其實我一開始做運動科學時,接觸過一些國家級的教練,他們對運動科學有點排斥,認為運動科學發展起來之後,會搶了他們的教練工作。但其實運動科學只是用數據輔助訓練,真正的訓練專業還是在教練身上。」蔡佳良希望現在還在起步階段,就有機會經歷科學訓練的選手,未來若是成了教練,可以經由自己的經驗,明白如何運用科技,讓訓練變得更有效率。

-----廣告,請繼續往下閱讀-----

「我們還希望我們的成果也能普及到一般民眾,因為運動科學的市場是很大的。」蔡佳良希望將智能球拍研發完整後,普及到一般運動用品店,讓民眾也能買來使用。他說:「即使是一般民眾,若能看看自己今天打球的狀況,也是很好玩、很有趣的事情。我相信會有人想買這種智能球拍的。」

文章難易度
科技大觀園_96
82 篇文章 ・ 1125 位粉絲
為妥善保存多年來此類科普活動產出的成果,並使一般大眾能透過網際網路分享科普資源,科技部於2007年完成「科技大觀園」科普網站的建置,並於2008年1月正式上線營運。 「科技大觀園」網站為一數位整合平台,累積了大量的科普影音、科技新知、科普文章、科普演講及各類科普活動訊息,期使科學能扎根於每個人的生活與文化中。

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

-----廣告,請繼續往下閱讀-----

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
文章難易度

討論功能關閉中。

賴昭正_96
43 篇文章 ・ 56 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

0

0
0

文字

分享

0
0
0
如何讓 Suno 製作出你想要的音樂?四大規則讓你用精準的 prompt 做出心中所想的音樂!
泛科學院_96
・2024/07/04 ・2849字 ・閱讀時間約 5 分鐘

最近用了跟 Suno 類似的音樂生成服務 Udio 才讓我理解歌曲生成的 prompt 要怎麼寫,然後配合 sonoteller 這個神器,讓你聽到什麼就能生出什麼!

所以我們這集就來講講:

  1. AI 音樂生成 prompt 的規則
  2. 抄音樂 prompt 的好幫手 sonoteller
  3. suno 跟 udio 的差異

提醒一下,這集沒有詳細的 Suno 操作,重點會放在怎麼寫 prompt 上。

這邊整理一下你看這集必須要知道的事,可以暫停看一下:

-----廣告,請繼續往下閱讀-----


那如果想看詳細的 Suno 操作,可以到這支影片:

好啦,讓我們開始吧。

輸入 Suno 的 prompt 只要關鍵字就好?

一開始用 Suno 時,我一直很困惑,到底要怎麼打 prompt 才能有效控制生成的音樂?

自從最近用了 Udio,它有 prompt 隨機生成,研究了一下 Udio 的 prompt,規則大概是「一句有情緒的故事梗概,加上多個曲風或歌曲細節詞彙」。

-----廣告,請繼續往下閱讀-----

然後我把 Udio 的 prompt 拿到 Suno 上跑,也能跑出不錯的東西。

所以,前面應該是指定整首歌的情境?

例如情境換成悲慘命運,聽起來就會變悲傷。

然後我在後面加上輕快 (Brisk)⋯⋯欸?悲傷去哪了?前面那串根本消失啦!

-----廣告,請繼續往下閱讀-----

那如果把前面那句話,拆解成情緒與事件關鍵字輸入也行嗎?

畢竟字數有限,這樣就能下更多 prompt 了!

嗯,事實是沒差,只要關鍵字就好。

所以結論是,音樂生成的 prompt 跟 Stable Diffusion 差不多,一個一個單詞輸入就好。

-----廣告,請繼續往下閱讀-----

四大規則!

在多次測試之後,我認為有效的 prompt 可以分為這四類:

1. 曲風類:funk、rock、pop、classical 之類的特定曲風。

這些詞最重要,會最大幅度限制歌曲的走向,通常會放多個有關聯的曲風,例如 city pop 跟 funk 還有 Disco 有關,我前面的 prompt 就選了 city pop 跟 funk,不用 Disco 單純是出來之後更有電音舞曲感,我不喜歡。

2. 歌曲控制類:B 小調、brisk、BPM 之類的名詞。

-----廣告,請繼續往下閱讀-----

這類名詞只能做到修飾,例如前面的 prompt 加個 BPM 200,也不可能演奏出 BPM 200 的 city pop,只是稍微加快,但如果我把曲風換成 rock, metal,就能接近我要求的 BPM 200。

3. 情緒、狀態類:miserable, adventure 這些日常生活中會出現的詞彙,能提供整首歌曲的旋律、節奏,但效果極弱。

例如前面放了輕快 brisk,悲傷感就消失了。

4. 樂器類:歌曲中有出現什麼樂器。

-----廣告,請繼續往下閱讀-----

你在選曲風的時候,就已經有樂器配置了。像上面的 city pop,就已經預設會有效果器 (Synthesizer),因此就算輸入民謠吉他 (Acoustic Guitar),也聽不到民謠吉他的原聲,滿滿的效果器。

我把上面的重點總結在這裡,有需要的可以停下來看,總之,先找對曲風,才能生出你想要的音樂。

怎麼知道喜歡的歌是什麼曲風?

那這時你可能會問啦,我哪知道自己想生的曲風是什麼啊?

這時就輪到 Sonoteller 登場啦!

-----廣告,請繼續往下閱讀-----

Sonoteller 是分析歌詞與曲風的 AI 工具,只要給他 Youtube 網址就會幫你分析啦。

這樣你就可以在 Youtube 上先找一首參考的歌曲,再丟到 Sonoteller 分析,瞬間就有曲風的 prompt 啦。不過近期 Sonoteller 的伺服器不堪負荷,常會遇到拒絕分析歌曲的情況。

但如果是超流行的歌,例如 Ado 的 Show,因為已經有人分析過,就會直接調之前分析的資料給你。

畫面的左半邊是歌詞分析,因我沒有生成歌詞的需求,這裡就不詳細說,


不過我自己截一些 summary 中的字當 prompt。

右半邊是曲風分析,Genres 就是我們的曲風啦,也有提供副曲風、情緒、樂器、BPM、key 之類的資訊,都可以複製回去當 prompt 用。

後面的數字是相似程度,參考就好,畢竟曲風、情緒感受是很主觀的,

好啦,讓我們聽聽用 ado show 的曲風做出來的歌長怎樣吧。

好像不太對勁,加個 J-pop 進去看看,這個感覺比較對,就先到這邊吧。

也提醒一下,我們不太可能只複製一首歌的 prompt 就得到想要的歌,多放幾首你覺得類似的歌到 sonoteller 分析是個好方法!

配合 ChatGPT 之類的工具來生成額外 prompt 也可以。不過我覺得門檻比 sonoteller 高,而且也不容易搞懂那些詞彙到底代表了什麼。

等等,Udio 和 Suno 到底哪一個好用?

再來說說前面有提到的 Udio 和 Suno 有什麼差吧!

基本邏輯是相同的,但 Udio 的操作更直覺,Udio 有提供 prompt 提示,不僅給我靈感,讓我學到很多新名詞,真的超級多,可能我在學校音樂課學的詞彙都沒有這幾個禮拜學到的多。

還有 Udio 每次生成歌曲只有 30 秒,更容易修改或擴充,它的擴充還可以選擇 intro outro 來生成音樂的開頭結尾,比起suno用起來更順手。

然後現在 udio 完全免費,一個月能生成 600 首,超適合拿來練 prompt!

蛤?你說這集為什麼沒有 Udio 生成的歌?

因為現在 udio 免費生成的音樂不能商用!

所以這支影片,就還是以 Suno 為主啦。

最後,你覺得 AI 生成的音樂聽起來如何呢?

  1. 當背景音樂不錯聽
  2. 匠氣太重,了無新意
  3. 沒感覺,要做的話
  4. 其他也可以留言分享喔

如果有其他想看的 AI 工具測試或相關問題,也可以留言告訴我們~

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

泛科學院_96
44 篇文章 ・ 51 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

1

0
0

文字

分享

1
0
0
動動滑鼠就能生圖修圖?不用付錢就能即時生成的 Leonardo AI 讓繪畫行雲流水!
泛科學院_96
・2024/06/09 ・828字 ・閱讀時間約 1 分鐘

-----廣告,請繼續往下閱讀-----

你在尋找免費的繪圖 AI 嗎?

自從 Stable Doodle 要收費後,我就一直在找類似的替代品,正好前陣子 Leonardo AI 也更新了Realtime Canva 功能,不是那個 Canva,是他們推出的塗鴉功能叫 Canva,試用之後驚為天人!

新增加的 inpaint 功能,能用 prompt 指定畫上去的色塊代表什麼,也有圖層跟透明度功能,大幅降低修整圖片的難度。

重點是,免費可用啊,付費只多了 realtime 及時生成,但免費的速度也不會太慢,你問我為什麼會知道?當然是花了錢之後發現根本沒差啊!

而且及時生成的圖都不用扣點,直到你按下輸出鍵才扣,修改次數無限,可以免費白嫖玩到爽,所以今天,就來教一下怎麼用 Leonardo Canva 啦,大概會說這三件事情:

-----廣告,請繼續往下閱讀-----
  1. 從無到有快速生成人物:這邊就簡單介紹基本操作。
  2. 在不影響生成人物的狀況下,加上背景:這邊會用到圖層、去背、AI 元素生成等功能。
  3. 最後微調:介紹 inpaint 功能怎麼用。

好啦,讓我們開始吧!

最後,你覺得 AI 圖片生成應該還要提供什麼服務呢?

  1. 我上色苦手,拜託有個不改我線稿的 AI 上色工具
  2. 可以有更多修改細節的方法,現在都太笨了
  3. 能不能讓 AI 讀懂構圖,不要每次圖生圖都變樣了
  4. 我不知道,能生不就好了

如果有其他想看的 AI 工具測試或相關問題,也可以留言發問。如果喜歡這支影片的話,也別忘了按讚、訂閱,加入會員,我們下集再見~掰!

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

所有討論 1
泛科學院_96
44 篇文章 ・ 51 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!