1

10
4

文字

分享

1
10
4

同一句話男女情緒大不同!AI 幫你分析無法脫魯的原因——清大資工陳宜欣專訪

科技大觀園_96
・2021/03/10 ・3825字 ・閱讀時間約 7 分鐘 ・SR值 515 ・六年級

-----廣告,請繼續往下閱讀-----

A:「我以為你會早點回來一起出門吃大餐。」
B:「沒辦法,事情很多忙不完」
A:「可是今天是很重要的日子耶,我以為你記得」
B:「老闆就臨時交代事情走不開,不然到底要我怎麼樣?!」

看到以上這段對話,你能感受到這兩人的情緒嗎?是期待、緊張、悲傷還是憤怒的呢?

應該可以感覺得到A帶著有些失望、悲傷的情緒,然而他並沒有說出「難過」、「傷心」等表示悲傷的字眼,那我們是怎麼得知的?

清華大學資訊工程學系副教授陳宜欣說:「社會文化讓我們收到特定用字時,會在潛意識進入同一個情境裡。」人類就像裝有好幾個 sensors,在經驗的累積之下,人們能夠在情境中,透過字句接收到情緒,於是她開始思考,如果人可以學習,那機器可以嗎?

人類可以學習從言語中判別情緒,那機器人是否也能經由訓練學習如何判別情緒。圖/Pexels

從數據分析看出發言者的情緒

情緒反映著心理狀態,而語言又是情緒的載具之一。陳宜欣副教授和團隊想出了一種用機器學習來分析情緒的新方法,利用社群網路的大數據找出蛛絲馬跡,與過去不同的是,他們拿掉了情緒用字,從常見字裡的「特徵」找出情緒型態。

-----廣告,請繼續往下閱讀-----

許多我們認為是中性的字眼,其實和情緒有關。」陳老師說,例如,他們曾在標資料的過程中,發現「學校」這個字竟然有 80% 是帶著悲傷的。也有些令人出乎意料的發現,譬如我們通常認為「希望」是很正向的,然而分析結果卻是「悲傷」,這有可能是因為我們在說「希望如何如何」時,往往是在一個不太開心的狀態中才會這麼說。

以往語言及情緒相關的研究,大多是由心理學家訪談,再進行人為標註,然而容易受到主觀判定、字彙有限等影響。而陳宜欣老師的團隊,起初從臉書粉絲頁抓取資料,將留言或貼文底下表情符號作為情緒特徵。由於社群媒體常作為人們抒發的管道,他們也發現,情緒用字是會隨著時代、潮流改變的,例如有一陣子社會案件頻傳,在網路上「恐龍法官」這個詞經常伴隨著憤怒。然而,同一個詞只會有一種情緒嗎?這可不一定,來看看下面這兩句吧!

「謝謝團隊裡的每一個人,我們才能完成這個研究。」
「真是謝謝你,毀了我美好的一天。」

發現了嗎?一樣都是使用「謝謝」,第一句是開心的,但第二句卻是無奈的。

「語言有趣的地方是,人類在溝通時,會用所謂的諷刺文」陳老師笑著說。因此,除了詞本身,上下文也須納入考慮。也就是說,不同文字各有其表達的概念,組合起來後才會形成語意。在與人互動的過程中,語言是傳遞訊息的媒介,乘載著我們的情緒與想法。但並非每次的傳遞都是順遂的,有時我們會用中性的字眼包裝強烈的情緒,對方不見得能理解背後的含義;有時「說者無意,聽者有心」,明明你認為這句話沒什麼,但某些用詞卻造成他人的誤解。

-----廣告,請繼續往下閱讀-----

例如文初 A 說的「我以為你會早點回來一起出門吃大餐。」便是用期待的情緒來隱藏悲傷、失望。而 B 最後回答的「不然到底要我怎麼樣?!」,或許他自己認為沒有什麼用意,但在 A 聽起來可能會以為 B 是帶著憤怒在說這句話的。

「人在溝通時,有時候講的話跟別人收到的不一樣。」陳老師這麼說。不僅聽者可能會誤解,有時甚至連自己都能夠騙過自己。陳老師表示,隨著研究,她也逐漸了解到,我們平常認為平和的說話方式,原來暗藏著許多「眉眉角角」。

從數據分析發現人在溝通時暗藏許多「眉眉角角」。圖/pexels

訓練 AI 分辨情緒用詞,發現男女不同情緒表達方式

提到語言裡的「眉眉角角」,那男生和女生表達情緒的方式會不一樣嗎?

陳老師在收集資料時發現,把性別納入考量,得到的結果會更準確。比如說同樣是憤怒的情緒,女生比較常用「期待」的語氣來表示,例如「我以為⋯⋯」、「我想說⋯⋯」,而男生可能會用一些強烈的字眼,例如 f**k,或是等事情過去才表達。

-----廣告,請繼續往下閱讀-----

後來他們分別訓練出男生和女生的情緒分析器,輸入只標註情緒但不區分性別的詞,果真得到不一樣的結果。像是原本帶著「期待」情緒的詞,女生的情緒分析出來是驚訝,但男生的卻是憎恨;帶「悲傷」的字,女生的結果卻是期待,男生的出來則是憤怒。

陳老師表示,可能是在社會文化薰陶下,不論男女在表達情緒時總習慣以「不直接」的方式包裝,尤其是負面情緒。

男女在表達情緒時總習慣以「不直接」的方式包裝,尤其是負面情緒。圖/Pexels

運用 AI 分辨情緒,找出躁鬱症徵兆

於是他們開始思考,這樣的發現是否能應用在男女表現差異較大的心理疾病上。後來,他們嘗試開發方法,能從社群平台發文動態中,偵測發文者的精神狀況,希望能協助受躁鬱症困擾的人。

躁鬱症又稱為雙極性情感疾患 (bipolar disorder),發作時會導致情緒失調,情緒會在狂躁(異常興奮)以及抑鬱之間擺盪。但有時女性躁鬱症患者會被誤診成憂鬱症,原因是當她狂躁時表現得比較像精神變好,與醫生認知的不同。

-----廣告,請繼續往下閱讀-----

陳宜欣老師的團隊搜集了上萬則的動態發文,除了用字之外,也從生活型態,例如發文時間、頻率等等,從行為中找出一些規律,最後訓練機器學習演算法,綜合各項特徵來區分初期徵兆。希望可以透過早期發現,給予患者需要的幫助及治療。

希望可以透過 AI 分辨情緒,早期找出患者躁鬱症徵兆。圖/Pexles

洞見不鼓勵負面情緒的網路社群

從作情緒分析,到後來應用在心理疾病的偵測上,陳老師提及開始研究情緒語言的契機,當時,第一個博士班學生來找她時,抱怨怎麼都搞不懂女朋友到底在想什麼,有沒有辦法可以利用機器學習知道一句話背後的情緒。加上她是三個孩子的媽媽,小朋友表達情緒的方式更是非典型,陳老師笑著說,她會想像小孩內建一個 model,與他們相處的過程中,不斷 trial and error,就會發現有趣的事情。也因為去上媽媽教室及身心靈課程的關係,讓她時常用兩種觀點思考、相互結合。

在研究情緒的過程中,發現人在某些時候會害怕自己的脆弱被看見,究竟是為什麼呢?

陳老師分享,她在中央大學副教授陳永儀的 TED 演講中找到原因,其中有句話說「這個社會常常只獎勵正面情緒」,好像表現出樂觀、正向才是好的,但如同他們在研究中發現的,當我們用另外一種情緒包裝負面時,其實對方不見得接收得到,溝通上的誤會便發生了。於是陳老師想,如果我們都能直接說出心裡的感受,或許許多衝突或傷害便能夠被避免。

回到文章開頭 A 和 B 的對話,若 A 明確地向 B 說:「今天是我們很重要的日子,你沒有早點回來一起吃飯,讓我覺得有點難過。」B 在接收到 A 的情緒後,或許更能夠同理並說出自己的苦衷,使兩人的頻率一致,達成溝通。

-----廣告,請繼續往下閱讀-----

我認為人際連結最好的方式是——適度表達悲傷」陳老師說,她在撰寫部落格時,觸及率最高的竟然是分享自己升等失敗的文章,就像電影《腦筋急轉彎》裡的角色憂憂 (Sadness) 。把悲傷說出來,除了讓他人了解你的需求外,也能使其他有過相同遭遇的人,知道自己不是孤單的。

電影《腦筋急轉彎》裡的角色憂憂 (右下藍色的動畫角色)。圖/Wikipedia

以 AI 為鏡,可以看見自己

在人人都說 AI 可以改變世界的今日,AI 真的能解決人類面臨的種種問題嗎?

陳老師表示,不要期待 AI 能夠解決問題,真正能解決問題的是人,機器只是輔助的工具,但只要是工具都像一把雙面刃,然而,她相信 Nokia 的那個廣告標語「科技始終來自於人性」,在決定要做什麼之前,先想最壞、最極端的情況,若還可以接受才會繼續做,不論未來如何發展,最根本的初衷是要考慮人性。

而在作研究的歷程中,陳老師發現人的確會在某些情況下,提供一些本身也不知道的資訊,也就是說,我們可能連自己都不太了解自己。小時候常被叮嚀的「吾日三省吾身」,但若原本認為的就是錯的,再怎麼想可能都還是得到一樣的結果。因此,她希望 AI 能夠像一面鏡子,幫助人們看到不願看見的自己,能夠更了解自己。

-----廣告,請繼續往下閱讀-----

參考資料

  1. 社群大數據的情緒分析
  2. 一名女科技人的反思
  3. 「狂躁抑鬱症」是什麼?
  4. Yi-Shin Chen IDEA lab
  5. 台灣資料科學年會——大數據下的情緒分析
文章難易度
所有討論 1
科技大觀園_96
82 篇文章 ・ 1125 位粉絲
為妥善保存多年來此類科普活動產出的成果,並使一般大眾能透過網際網路分享科普資源,科技部於2007年完成「科技大觀園」科普網站的建置,並於2008年1月正式上線營運。 「科技大觀園」網站為一數位整合平台,累積了大量的科普影音、科技新知、科普文章、科普演講及各類科普活動訊息,期使科學能扎根於每個人的生活與文化中。

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
文章難易度

討論功能關閉中。

賴昭正_96
43 篇文章 ・ 56 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

0

1
0

文字

分享

0
1
0
免費字幕君!怎麼用 AI 語音辨識幫你自動生成字幕?
泛科學院_96
・2024/07/08 ・2458字 ・閱讀時間約 5 分鐘

-----廣告,請繼續往下閱讀-----

下載 Youtube 影片、自動生成影片逐字稿、AI 智慧翻譯、匯出雙語 SRT 字幕、字幕內嵌 MP4 影片,甚至是把你的電腦當成 AI 運算伺服器、使用多模態 AI 模型來做圖片辨識……這一切的一切通通都免費,敢有可能 (Kám ū khó-lîng)?

今天的影片要來跟你分享開源 AI 套件 Ollama,這個開源套件AJ 最近上課演講工作坊逢人必教。

今天的影片,我們要手把手教你使用 Ollama 在你的電腦裡執行各種免費開源 AI 模型,希望你能跟我一樣成為 AI 暈船仔……Ollama 真香……啊扯遠了,我們沒有點數可以送。

今天的影片會分成三個部分:

-----廣告,請繼續往下閱讀-----
  1. Ollama 安裝與模型下載
  2. 結合 Memo 翻譯影片字幕
  3. 用多模態模型做圖片辨識

Ollama 安裝與模型下載

首先我們要先安裝 Ollama:

來到 ollama.com 點選 Download,下載適合自己的版本後進行安裝,安裝完畢之後,啟動 Ollama。以我的電腦來說右上角就會出現一個小小的 Ollama 圖示,這樣就成功安裝囉!

接著我們需要下載 AI 模型到你的電腦:

回到 Ollama 首頁,點選右上角 Models,這邊就會列出所有官方支援的模型,比如最近很流行的 Meta LLAMA 3、微軟的 Phi3、法國 Mistral AI 公司的 Mistral、Google Gemini 模型的開源版 Gemma 都有,你可以挑選喜歡的來測試。

-----廣告,請繼續往下閱讀-----

比如我點選 LLAMA 3 的連結,模型頁面有兩個地方要注意:一是模型大小,LLAMA3 是 4.7G,一般而言要玩大模型,電腦記憶體至少 16G,預算夠就 24G 不嫌多;如果你是使用一般文書電腦,記憶體 8G 的話,建議你現在馬上停止你的任何動作。我有測試過電腦會直接當機……不要說我沒有提醒你。

點開 Latest 選單可以依照需求選擇不同版本的模型:

不過我們直接點選最右邊複製執行指令,打開電腦的終端機程式,或著命令提示字元,貼上,這樣電腦就會開始下載並且自動安裝囉。

你可以用 ollama list 指令查看現在電腦內有哪些模型,如果硬碟容量有限,用 ollama rm 後面加上模型名稱可以刪除模型。比如:ollama rm llama3。我們這邊另外安裝 llava 模型:ollama run llava,這樣準備工作就完成囉。

-----廣告,請繼續往下閱讀-----

Ollama + memo

最近只要演講上課,我一定會分享 Memo 這套好用的軟體,我們之前也有一支影片分享他的用法。

最近 Memo 更新之後,我們就可以直接使用 Ollama 結合特定的模型來進行字幕的翻譯。舉例來說,我們打開 memo,複製 Youtube 網址;我們用這支 楊立昆 的演講,貼上網址,開始下載,下載完畢後使用電腦進行語音辨識,接著我們就可以使用 Ollama 搭配剛剛準備好的 LLama3 模型來做翻譯!


翻譯完畢之後就可以匯出 SRT 字幕


如果你本身是影片創作者,這招就可以輕鬆製作你的 SRT 字幕,再也不用花時間對字幕時間軸了。

-----廣告,請繼續往下閱讀-----

或者你要把影片字幕直接內嵌在做簡報的時候播放影片:


匯出 MP4 格式,語言選雙語。如果你還沒用過這招處理影片,我強烈建議你一定要試試看!

Ollama + Enchanted

接下來我們要分享另一套非常實用的工具——Enchanted。他也是開源,可以讓原本是文字介面的 Ollama
提供類似 ChatGPT 的對話視窗,甚至支援圖片辨識的多模態模型 llava,Mac 用戶可以直接去 App Store 免費安裝。


同時開啟 Ollama 跟 Enchanted LLM:

-----廣告,請繼續往下閱讀-----


就擁有一個漂亮的視窗介面,可以優雅的啟用各種想要測試的 AI 模型,他甚至有手機版 APP!用手機連線自己的蘋果電腦跑 AI 模型?這……這,真的可以免費用嗎?

讓我來試試看!

首先要先安裝 ngrok 這套程式,選擇自己的作業系統然後下載。Windows 用戶應該直接安裝就可以了,Mac 的用戶在終端機執行這行 Sudo 指令把程式解壓縮到 user local bin 資料夾,接著註冊一個免費的 ngrok 帳號。

複製 ngrok config 指令,貼回自己電腦的終端機,把連線金鑰寫入自己的電腦。

-----廣告,請繼續往下閱讀-----

最後一步,啟動連線,指令是:ngrok http 11434 –host-header=”localhost:11434″

一切順利的話就會看到類似這個畫面。

然後把 forwarding 的網址複製,打開 iPhone 或 iPad 的 Enchanted app,在設定 Setting 裡面把 Ollama 網址貼上,這樣就可以遠端調用電腦的 Ollama 來使用 AI 模型,比如選用稍早下載的 LLava 多模態模型。

傳一張照片,問它這是什麼?

-----廣告,請繼續往下閱讀-----


是不是非常神奇呢?
快練習把 ollama、ngrok 跟 Enchanted 串起來跟朋友炫耀吧!

總結

今天的影片跟各位分享了基於 Ollama 這個開源 AI 套件的各種有趣應用,你是否有成功在 iphone 上打造自己的 AI 服務呢?

  1. 太複雜了我決定躺平
  2. 笑話,我可是尊榮的 GPT Plus 用戶
  3. 沒有 Mac 電腦不能玩……嗚嗚嗚
  4. 你怎麼不介紹那個 ooxx Ollama 套件

如果有其他想看的 AI 工具測試或相關問題,也可以留言告訴我們~

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得

討論功能關閉中。

泛科學院_96
44 篇文章 ・ 51 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

0

0
0

文字

分享

0
0
0
Claude、ChatGPT 提示詞優化!4 個技巧讓 AI 更懂你的需求!
泛科學院_96
・2024/07/06 ・713字 ・閱讀時間約 1 分鐘

-----廣告,請繼續往下閱讀-----

聽說 Office 365 Copilot 終於支援中文了!

我還不馬上拿出魔術小卡——加入會員,訂閱,開啟小鈴鐺,啊不是我是說,訂閱 Copilot……

嗯?20 美金?嗯?這沒有 Office 365 Copilot 啊?我找找……

靠,現在訂閱 Office 365 Copilot,最便宜要用商務標準版才能加購,而且加購只能一次買一年,要一萬一……我們本來都準備好各種有趣的測試了,但這錢我真的花不下去阿……那今天準備好的測試該怎麼辦呢?

-----廣告,請繼續往下閱讀-----

別擔心,今天的影片,我來回答三個問題:

  1. 如果 copilot 真的開放,我想像中會遇到什麼問題
    抱歉了,一萬一真的刷不下去……
  2. 用 GPT4 示範大語言模型的進階提示技巧,應用於文稿撰寫的方法
    畢竟 copilot 也是借鑑 GPT4,性能應該差不多啦!(屁啦)
  3. 這些技巧在其他語言模型也可以用嗎?

本集的「進階 AI 提示語」有沒有打開你的 AI 使用靈感呢?

  1. 太複雜了我決定躺平
  2. 炫技,等 GPT-5 出來這些都不再重要
  3. 我決定仿效泛科學院精神鑽研出神級提示語跟大家分享
  4. 其他也可以留言分享喔

欸嘿,前面提到的 QR code 在這邊 ^.< 不要告訴別人喔(噓)


如果有其他想看的 AI 工具測試或相關問題,也可以留言告訴我們~

-----廣告,請繼續往下閱讀-----

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

討論功能關閉中。

泛科學院_96
44 篇文章 ・ 51 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!