Loading [MathJax]/extensions/MathMenu.js

0

0
0

文字

分享

0
0
0

利用臉書的動態、鄉民的發文,讓 AI 學習人類字裡行間中的情緒

研之有物│中央研究院_96
・2018/02/15 ・2163字 ・閱讀時間約 4 分鐘 ・SR值 540 ・八年級

-----廣告,請繼續往下閱讀-----

執行編輯|林婷嫻 美術編輯|張語辰

一組詞、一句話的背後,其實帶有不同的情緒。 圖/freeGraphicToday @Pixabay

「我沒事」到底是什麼情緒?

情緒,是許多疾病和社會問題的表徵。例如有躁鬱傾向的人們,說話用詞有很大的情緒起伏;又如網路霸凌,會反映於社群留言的用字情緒。若能及早偵測到這些情緒,就有機會及時避免憾事發生,而這個任務可透過人工智慧(Artificial Intelligence, AI)協助。

但是,情緒不是那麼容易透過詞語理解。

例如,朋友在 Facebook 發文「我沒事」,究竟代表心平氣和的「我沒事」,還是絕望至極的「我沒事」;還有當鄉民留言「看吧!」,想表達的是讚賞意味的「看吧!」,或是嘲諷語氣的「看吧!」?

社群平台上的簡短發言,往往令人難以辨明當事人究竟想表達什麼。 圖/LoboStudioHamburg @Pixabay

如同《來自星星的傻瓜》電影主角(一名外星人)所言,人類的語言非常難理解,在不同情境脈絡有不同意思,甚至會隱藏真實情感說謊。這些都增加人工智慧從語意分析情緒的難度。

-----廣告,請繼續往下閱讀-----

清華大學資工系的陳宜欣副教授,是三個小孩的媽媽。她發現從小孩學習如何說話表達情緒的過程,可以梳理出一條路徑訓練機器學習。雖然小孩說話常常毫無邏輯,但許多小細節累積起來,就能讓大人判斷小孩的情緒。

例如當小孩對媽媽說「妳總是叫我收玩具」,其中用了「總是」這個詞,可以判斷小孩不太高興。或是小孩說「我永遠不能電視看了」,乍聽滿頭問號,但用了「永遠不能」這組詞,可以判斷其中的負面情緒。

不懂語法、沒背過辭典,還是可以表達情緒,反之也能分析情緒。

網路爬文 借用群眾智慧

陳宜欣團隊運用網路爬蟲技術,將社群網站公開發文(PTT、Facebook、Twitter 等),跟情緒有關的內容都蒐集建立至「情緒資料庫」。或許有些人會認為:「這不就是一堆人在發廢文?」,但以群眾外包(crowdsourcing)的角度,這些社群發言集結起來,就是群眾智慧,可做為訓練機器學習的資料。

「情緒,是社群網站上的一種特性,也是可供機器學習的資料」陳宜欣強調。  圖/2017 台灣人工智慧年會 X 台灣資料科學年會

團隊將社群發文者原先在發文加上的情緒 Hashtag (例如 #anger)作為參考答案 ,但一開始先把這些「答案」遮起來,訓練機器透過演算法學習發文中「出現哪些字」代表「什麼樣的情緒」,最後再與原本的答案(例如 #anger)對照,一次次地優化機器判斷情緒的準確率。

-----廣告,請繼續往下閱讀-----

「用大數據做情緒分析有個重點,就是刪資料不要心痛!」陳宜欣笑中有股失敗無數次的堅毅,「太多 Hashtag 的發文、重複發文、太短沒有情緒特徵的發文……等等,都要從訓練資料中拿掉」。

團隊也參考新聞標題,找出哪些字是較中性的「非情緒資料」,並從機器學習的訓練資料中排除、優化準確率。值得注意的是,選舉時期的新聞標題不能參考,因為用字遣詞太過激昂。

找出情緒用詞的邏輯

透過機器協助,可以從社群平台上的發文找出當事人情緒的蛛絲馬跡。 圖/geralt @Pixabay

經過機器學習分析,陳宜欣團隊發現一些跨語系的情緒邏輯。例如 “finally *** my” 這組字詞多表達快樂,而中文 「我終於***」也多用來傳達正面的消息。又如 “my *** always” 這組字詞多含有生氣意味,就像小朋友說「爸爸/媽媽總是***」藉以表達不快。

中文贅字的處理,也是情緒分析很有趣的一環。「學生建議這很重要,一定要列入分析!」陳宜欣說。例如:「喔,我來做」其實是不太想做,「喔喔,我來做」較為中性,「喔喔喔,我來做」帶有積極感。凡是超過三個以上的贅字,可視同為三個贅字。這個規則用在「哈」、「哈哈」、「哈哈哈」、「哈哈哈哈」也有同工之妙。

-----廣告,請繼續往下閱讀-----

然而陳宜欣團隊發現,社群平台很多人發文以炫耀為主、或是報喜不報憂,導致社群平台上「開心」的發文特別多。

另外,網路霸凌其實有很多「暗語」。

例如,團隊看過一則發文是「那些外國動物不應該被出口」,其實這句暗地裡帶有種族歧視。其中一種解決方案是運用 Hatebase 仇恨發言資料庫,並藉由機器學習比對非仇恨的文字資料,找出這類「暗語」的關聯性(通常哪幾個字會一起被使用)、以及相似性(字詞會在句子中哪些類似地方出現)。

許多人會在憾事發生後,回過頭從當事者社群發文的字裡行間尋找跡象,但未來能否更早偵測?當局者迷,旁觀者清。人工智慧有潛力成為一名不帶情緒的旁觀者,分析社群大數據找出被情緒糾葛的人們,甚至是預防犯罪、偵測自殺傾向。

延伸閱讀:

本著作由研之有物製作,原文為《AI 可以幫助躁鬱、被霸凌的人嗎?》以創用CC 姓名標示–非商業性–禁止改作 4.0 國際 授權條款釋出。

-----廣告,請繼續往下閱讀-----

本文轉載自中央研究院研之有物,泛科學為宣傳推廣執行單位

-----廣告,請繼續往下閱讀-----
文章難易度
研之有物│中央研究院_96
296 篇文章 ・ 3644 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

0
0

文字

分享

0
0
0
如何讓 Suno 製作出你想要的音樂?四大規則讓你用精準的 prompt 做出心中所想的音樂!
泛科學院_96
・2024/07/04 ・2849字 ・閱讀時間約 5 分鐘

-----廣告,請繼續往下閱讀-----

最近用了跟 Suno 類似的音樂生成服務 Udio 才讓我理解歌曲生成的 prompt 要怎麼寫,然後配合 sonoteller 這個神器,讓你聽到什麼就能生出什麼!

所以我們這集就來講講:

  1. AI 音樂生成 prompt 的規則
  2. 抄音樂 prompt 的好幫手 sonoteller
  3. suno 跟 udio 的差異

提醒一下,這集沒有詳細的 Suno 操作,重點會放在怎麼寫 prompt 上。

這邊整理一下你看這集必須要知道的事,可以暫停看一下:

-----廣告,請繼續往下閱讀-----


那如果想看詳細的 Suno 操作,可以到這支影片:

好啦,讓我們開始吧。

輸入 Suno 的 prompt 只要關鍵字就好?

一開始用 Suno 時,我一直很困惑,到底要怎麼打 prompt 才能有效控制生成的音樂?

自從最近用了 Udio,它有 prompt 隨機生成,研究了一下 Udio 的 prompt,規則大概是「一句有情緒的故事梗概,加上多個曲風或歌曲細節詞彙」。

-----廣告,請繼續往下閱讀-----

然後我把 Udio 的 prompt 拿到 Suno 上跑,也能跑出不錯的東西。

所以,前面應該是指定整首歌的情境?

例如情境換成悲慘命運,聽起來就會變悲傷。

然後我在後面加上輕快 (Brisk)⋯⋯欸?悲傷去哪了?前面那串根本消失啦!

-----廣告,請繼續往下閱讀-----

那如果把前面那句話,拆解成情緒與事件關鍵字輸入也行嗎?

畢竟字數有限,這樣就能下更多 prompt 了!

嗯,事實是沒差,只要關鍵字就好。

所以結論是,音樂生成的 prompt 跟 Stable Diffusion 差不多,一個一個單詞輸入就好。

-----廣告,請繼續往下閱讀-----

四大規則!

在多次測試之後,我認為有效的 prompt 可以分為這四類:

1. 曲風類:funk、rock、pop、classical 之類的特定曲風。

這些詞最重要,會最大幅度限制歌曲的走向,通常會放多個有關聯的曲風,例如 city pop 跟 funk 還有 Disco 有關,我前面的 prompt 就選了 city pop 跟 funk,不用 Disco 單純是出來之後更有電音舞曲感,我不喜歡。

2. 歌曲控制類:B 小調、brisk、BPM 之類的名詞。

-----廣告,請繼續往下閱讀-----

這類名詞只能做到修飾,例如前面的 prompt 加個 BPM 200,也不可能演奏出 BPM 200 的 city pop,只是稍微加快,但如果我把曲風換成 rock, metal,就能接近我要求的 BPM 200。

3. 情緒、狀態類:miserable, adventure 這些日常生活中會出現的詞彙,能提供整首歌曲的旋律、節奏,但效果極弱。

例如前面放了輕快 brisk,悲傷感就消失了。

4. 樂器類:歌曲中有出現什麼樂器。

-----廣告,請繼續往下閱讀-----

你在選曲風的時候,就已經有樂器配置了。像上面的 city pop,就已經預設會有效果器 (Synthesizer),因此就算輸入民謠吉他 (Acoustic Guitar),也聽不到民謠吉他的原聲,滿滿的效果器。

我把上面的重點總結在這裡,有需要的可以停下來看,總之,先找對曲風,才能生出你想要的音樂。

怎麼知道喜歡的歌是什麼曲風?

那這時你可能會問啦,我哪知道自己想生的曲風是什麼啊?

這時就輪到 Sonoteller 登場啦!

-----廣告,請繼續往下閱讀-----

Sonoteller 是分析歌詞與曲風的 AI 工具,只要給他 Youtube 網址就會幫你分析啦。

這樣你就可以在 Youtube 上先找一首參考的歌曲,再丟到 Sonoteller 分析,瞬間就有曲風的 prompt 啦。不過近期 Sonoteller 的伺服器不堪負荷,常會遇到拒絕分析歌曲的情況。

但如果是超流行的歌,例如 Ado 的 Show,因為已經有人分析過,就會直接調之前分析的資料給你。

畫面的左半邊是歌詞分析,因我沒有生成歌詞的需求,這裡就不詳細說,


不過我自己截一些 summary 中的字當 prompt。

右半邊是曲風分析,Genres 就是我們的曲風啦,也有提供副曲風、情緒、樂器、BPM、key 之類的資訊,都可以複製回去當 prompt 用。

後面的數字是相似程度,參考就好,畢竟曲風、情緒感受是很主觀的,

好啦,讓我們聽聽用 ado show 的曲風做出來的歌長怎樣吧。

好像不太對勁,加個 J-pop 進去看看,這個感覺比較對,就先到這邊吧。

也提醒一下,我們不太可能只複製一首歌的 prompt 就得到想要的歌,多放幾首你覺得類似的歌到 sonoteller 分析是個好方法!

配合 ChatGPT 之類的工具來生成額外 prompt 也可以。不過我覺得門檻比 sonoteller 高,而且也不容易搞懂那些詞彙到底代表了什麼。

等等,Udio 和 Suno 到底哪一個好用?

再來說說前面有提到的 Udio 和 Suno 有什麼差吧!

基本邏輯是相同的,但 Udio 的操作更直覺,Udio 有提供 prompt 提示,不僅給我靈感,讓我學到很多新名詞,真的超級多,可能我在學校音樂課學的詞彙都沒有這幾個禮拜學到的多。

還有 Udio 每次生成歌曲只有 30 秒,更容易修改或擴充,它的擴充還可以選擇 intro outro 來生成音樂的開頭結尾,比起suno用起來更順手。

然後現在 udio 完全免費,一個月能生成 600 首,超適合拿來練 prompt!

蛤?你說這集為什麼沒有 Udio 生成的歌?

因為現在 udio 免費生成的音樂不能商用!

所以這支影片,就還是以 Suno 為主啦。

最後,你覺得 AI 生成的音樂聽起來如何呢?

  1. 當背景音樂不錯聽
  2. 匠氣太重,了無新意
  3. 沒感覺,要做的話
  4. 其他也可以留言分享喔

如果有其他想看的 AI 工具測試或相關問題,也可以留言告訴我們~

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

-----廣告,請繼續往下閱讀-----
泛科學院_96
44 篇文章 ・ 53 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

0

0
0

文字

分享

0
0
0
動動滑鼠就能生圖修圖?不用付錢就能即時生成的 Leonardo AI 讓繪畫行雲流水!
泛科學院_96
・2024/06/09 ・828字 ・閱讀時間約 1 分鐘

-----廣告,請繼續往下閱讀-----

你在尋找免費的繪圖 AI 嗎?

自從 Stable Doodle 要收費後,我就一直在找類似的替代品,正好前陣子 Leonardo AI 也更新了Realtime Canva 功能,不是那個 Canva,是他們推出的塗鴉功能叫 Canva,試用之後驚為天人!

新增加的 inpaint 功能,能用 prompt 指定畫上去的色塊代表什麼,也有圖層跟透明度功能,大幅降低修整圖片的難度。

重點是,免費可用啊,付費只多了 realtime 及時生成,但免費的速度也不會太慢,你問我為什麼會知道?當然是花了錢之後發現根本沒差啊!

而且及時生成的圖都不用扣點,直到你按下輸出鍵才扣,修改次數無限,可以免費白嫖玩到爽,所以今天,就來教一下怎麼用 Leonardo Canva 啦,大概會說這三件事情:

-----廣告,請繼續往下閱讀-----
  1. 從無到有快速生成人物:這邊就簡單介紹基本操作。
  2. 在不影響生成人物的狀況下,加上背景:這邊會用到圖層、去背、AI 元素生成等功能。
  3. 最後微調:介紹 inpaint 功能怎麼用。

好啦,讓我們開始吧!

最後,你覺得 AI 圖片生成應該還要提供什麼服務呢?

  1. 我上色苦手,拜託有個不改我線稿的 AI 上色工具
  2. 可以有更多修改細節的方法,現在都太笨了
  3. 能不能讓 AI 讀懂構圖,不要每次圖生圖都變樣了
  4. 我不知道,能生不就好了

如果有其他想看的 AI 工具測試或相關問題,也可以留言發問。如果喜歡這支影片的話,也別忘了按讚、訂閱,加入會員,我們下集再見~掰!

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

-----廣告,請繼續往下閱讀-----
泛科學院_96
44 篇文章 ・ 53 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

0

1
2

文字

分享

0
1
2
裝上 ReALM 讓 Siri 不再聽不懂人話?你的聲控語音秘書即將來臨!
泛科學院_96
・2024/05/30 ・809字 ・閱讀時間約 1 分鐘

-----廣告,請繼續往下閱讀-----

替 iPhone 開發新的 AI 助理?幫 Siri 裝一個小型 AI 模型就好啦!

自從二月 Apple 終止電動車開發,決定全力往 AI 領域發展。

在我還在想 Apple 要怎麼彎道超車時,三月底 Apple 就主動發了一篇 AI 相關論文,在 iPhone 上加裝一個小的 AI 模型,就能讓 Siri 更能聽懂你的話,這無論是實用性還是創意,我都給到中上水準。

在這篇論文出現之前,我想到 Siri 如果要跟上 AI 浪潮,勢必要打掉重練。

現在呢?不用!在 iPhone 上裝個小型 AI 模型,就能從智慧手機變成 AI 手機,讓 Siri 做到更多事。而在這篇論文的背後,也隱約看見了 AI 代理人(AI agent)的可能性!

-----廣告,請繼續往下閱讀-----

所以今天,我們就來分享:

  1. Apple 如何用小型 AI 模型升級 siri?
  2. Android 手機上的 AI Agent 研究。
  3. 未來 AI Agent 的發展,沒有鍵盤滑鼠的 LLM 作業系統。

最後再來分享怎麼用 AI Agent 的安裝方法。

廢話不多說,讓我們開始吧!

最後,你覺得未來的電腦或行動裝置會是什麼樣子呢?

  1. 完全聲控還能自己看狀況。
  2. 原始的輸入設備是必要的,不然當機怎麼辦?
  3. 在行動裝置上也許能做到,但電腦應該不太行。
  4. 其他也可以留言分享喔

如果,有其他想看的 AI 工具測試或相關問題,也可以留言發問,如果喜歡這支影片的話,也別忘了按讚、訂閱,加入會員,我們下集再見~掰!

-----廣告,請繼續往下閱讀-----

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

-----廣告,請繼續往下閱讀-----
泛科學院_96
44 篇文章 ・ 53 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!