1

4
0

文字

分享

1
4
0

打造「聊」癒系機器人!看圖說故事,AI 也略懂略懂

研之有物│中央研究院_96
・2020/08/18 ・3503字 ・閱讀時間約 7 分鐘 ・SR值 479 ・五年級

-----廣告,請繼續往下閱讀-----

本文轉載自中央研究院研之有物,泛科學為宣傳推廣執行單位。

  • 採訪編輯|郭雅欣;美術編輯|林洵安

AI 如何看圖說故事?

看圖說故事對人類來說,是輕鬆好玩的事,但對 AI 來說,卻是巨大挑戰,因為這代表 AI 必須看出圖中有哪些物件、理解圖片意義、能夠生成文句,還要看懂圖片間的因果邏輯。在中研院資訊科學研究所古倫維副研究員的努力下, AI 看圖說故事的能力有了很大的進展。她的模型有什麼獨特之處呢?跟著研之有物一起來瞧瞧!

俗話說得好:「發文不附圖,此風不可長。」不論你發的是爆卦文、閒聊文還是業配文,有圖更容易晉身流量熱文。不過近年來,社群網站發文的風向漸漸有了改變,從「發文附圖」轉變成「發圖附文」,我們總是先來一張照片,再配上相應的描述文字。接下來,我們的發文習慣還會怎麼改變?

或許,未來你拍下一張照片上傳社群網站,電腦就會自動「看圖說故事」,為你的照片腦補一段說明文字,節省你的思考時間。

讓電腦學會「看圖說故事」的伎倆,正是中研院資訊科學研究所的古倫維副研究員正在鑽研的主題之一。她的主要研究領域是人工智慧( AI )的自然語言處理,在因緣際會下,接觸到一個 AI 看圖說故事的競賽: Visual Storytelling ( VIST ),開啟了她對 AI 看圖說故事的興趣。

-----廣告,請繼續往下閱讀-----
中研院資訊科學研究所的古倫維副研究員,主要研究領域是人工智慧( AI )的自然語言處理,現正開發如何讓 AI 不只會說故事,還會看圖說故事。
攝影│林洵安

電腦如何學會「看圖說故事」?目前學界使用「機器學習」,簡單來說,就是讓電腦從大量的圖文搭配組合,從中學習看到怎樣的圖片,應該說出怎樣的故事。中研院資訊所古倫維副研究員說:「其實一開始我們做得並不特別好。我們跟其他參加競賽的人一樣,用機器學習的方法,把圖和對應的文字丟進電腦,讓機器自己學習最佳的圖文搭配。然而機器學習幾乎是軍備競賽了!誰的電腦計算能力更強,得到的模型更複雜,生成的文字就會更好。」

先選角、打草稿,再寫故事

在軍備競爭不足的情況下,古倫維決定採取不同的策略:「既然完全由 AI 看圖說故事的效果不夠好,能不能在故事生成的過程中,有一個人類可以介入改善的步驟。」所以她把原來的做法分成了兩個階段,先從圖片抽取語意,接著再生成文字故事。

語意抽取,是指先從個別圖片中選出用來說故事的概念(如同電影選角),用知識庫找出概念之間的關係,建立圖片的關聯,再為這些圖片擬定最好的草稿(如同電影故事大綱)。

重點來了!在「選角」階段, AI 會先以機器學習的結果,找出最適合說故事的「角色組合」,尤其是面對連續圖片。這就好比張曼玉、梁朝偉、成龍三個演員,前兩個主要演愛情片,第三個以武打戲為主,如果第一張照片選了張曼玉,第二張照片應該選梁朝偉,生成的故事會比較好看。

-----廣告,請繼續往下閱讀-----

但目前 AI 選角部分還不夠靈光,有時仍會發生如「張曼玉配成龍」的選角名單。古倫維的兩階段設計讓人類可在「選角」階段介入修改。實際例子如:圖片中有小男孩、天空、腳踏車三個概念。AI 從上圖抽取出的概念可能是「小男孩」、「天空」,最後生成的故事可能是「一個小男孩在天空下」…… 滿無聊的。但人類可以把「天空」改成「腳踏車」,機器最後就可能生成「一個小男孩騎著腳踏車。」嗯,是不是比較有故事性了?

最後,人類再將修改後的選角和故事大綱,交給 AI 產生整個故事。這種「先選角、打草稿,再說故事」的方式,最後產生的故事比較不會無聊或是不合理,更接近人類說出的故事。

古倫維的故事生成模型將產生故事的過程分成「語意抽取」及「故事生成」兩個階段。
圖說重製│黃曉君、林洵安
資料來源│古倫維

知識庫,AI 想像力的補充包

為了增加 AI 的想像力,古倫維也在模型中納入「知識庫」,幫 AI 增加故事的知識。例如圖片中有人與馬,如果沒有知識庫,AI 可能只能生成「有一個人與一匹馬」這種平淡的句子。但知識庫可以補充人與馬關聯的知識,包括人可以騎馬、養馬等等,讓 AI 有機會說出「有一個人騎著自己養的馬」比較具故事性的句子。「當然 AI 也可能從大量的故事中以機器學習取得『很多人都會騎馬、養馬』的知識。但知識庫的最大功用,就是直接提供這個知識給 AI ,縮短學習歷程。」 古倫維解釋。

更重要的是,知識庫讓 AI 更容易解讀出圖片之間的關聯。如 VIST 競賽的題目就是包含了五張圖片的圖組,在知識庫的協助下, AI 比較容易找出各別圖片的概念之間的關聯,說出的故事會比較連貫,具有因果關係。

-----廣告,請繼續往下閱讀-----

AI 是完全沒有想像力的,但若透過知識庫給它知識,這些知識在故事中呈現出來的,就像是 AI 的想像力。

電腦看圖說故事的範例。No KG 代表機器在不添加額外知識時所產生的故事,Visual Genome 與 Open IE 古倫維團隊用兩個不同的知識庫分別產生的故事,GLAC 是除了古倫維的模型外目前成果最好的模型。由上可知,知識庫的確能幫助故事的上下文連結。最後的 Human 是真人所寫的故事,包含了許多圖片中沒有的知識,甚至精神性的內容。
圖說美化│林洵安
資料來源│古倫維

巧妙切開「語意抽取」與「生成文本」

兩階段生成故事的方法還有一個優點,就是可善用大量的「圖片辨識」與「故事文本」資料庫,避開「圖文搭配」資料的缺乏。

現今的「圖片辨識」技術和資料庫非常成熟,可以精準的從圖片中抽取出各式各樣的概念。另一方面,說故事是人類從古至今不斷從事的活動,留下了大量的「故事文本」。相較之下,看圖說故事的「圖文搭配」資料量卻相當少,需要有人刻意去蒐集圖組、撰寫文字,古倫維說:「這種圖文搭配的資料必須人工建立,能有一萬組就很厲害了,但這個數量對於機器學習來說卻是遠遠不夠的。」

古倫維則把生成故事的過程拆成「語意抽取」與「生成文本」兩個階段,第一階段可利用精熟的圖片辨識技術和資料庫,抽取故事概念;第二階段再運用故事文本資料庫,讓機器學習如何將第一階段抽取(並由人類修改過)的概念,組合成漂亮的故事,巧妙避開了「圖文搭配」資料不足的難題。

把「語意抽取」與「生成文本」切開的話,兩個階段都可以利用幾千萬筆的既有資料,供機器學習。

腦補,讓機器更有溫度

說了半天,但 AI 會看圖說故事,到底能幹嘛?難道只是幫貼圖寫寫圖說?以研究的層面來說,如果 AI 能看圖說故事,代表 AI 在理解圖片、文字分析及因果邏輯等方面,都達到一定的水準,代表 AI 語言能力更加接近人類。在實際應用上, 可以為圖文創作者提供故事草稿,或是對於常常需要撰寫廣告文案、出差報告的人,能夠很快從圖像生成文本,人類只要略做修改潤飾即可 (小職員計畫通!)。

-----廣告,請繼續往下閱讀-----

但更重要的是,機器人也能因此更有溫度!古倫維與臺大人工智慧與機器人研究中心的傅立成教授合作,希望透過 AI 看圖說故事的技術,讓居家照護機器人更有「人味」,會主動關懷人類。因為居家照護機器人在家中「看見」的一切,其實就是一張張的圖, AI 可以透過這些「圖」形成可能的故事,再轉化為暖心的問句。

想像一下,未來居家照護機器人看見老人家在廚房,故事劇情可能是「他要煮飯」,於是問出:「今晚想吃什麼?需要幫忙嗎?」當老人拿出相簿緬懷過去,AI 也能從舊照片解讀可能故事,轉化成聊天的問句:「照片中的這個人是誰啊?你們去哪裡玩?」還能變身孩子最愛的說故事姊姊!AI 可能從儲存的繪本資料庫中,隨機抽出不同圖畫重新組合,說出全新的故事。

會看圖說故事的 AI ,可以從眼前的情景連結到事件或情感,就像人類的腦補一般,而這些腦補就是故事。

AI 看圖說故事的能力,可讓照顧居家照護機器人了解眼前的生活情境,具有找話題的能力,變得溫暖許多。
圖片來源│iStock

如此一來,居家照護機器人不再只是被動的處理人類需求,相反的,「說故事的能力賦予了 AI 機器人找話題的功能。」古倫維笑著解釋,機器人從此不再詞窮,可以主動關心人類,與人類互動聊天,讓機器人變得溫暖許多。看來 AI 看圖說故事,不只是寫寫圖說、幫忙解決麻煩的出差報告,在不遠的未來,更是拉近我們與機器人距離的關鍵所在呢。

延伸閱讀

本文轉載自中央研究院研之有物,原文為《打造「聊」癒系機器人!看圖說故事,AI 也略懂略懂》,泛科學為宣傳推廣執行單位。

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度
所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3620 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

3
0

文字

分享

0
3
0
從「衛生紙」開始的環保行動:一起愛地球,從 i 開始
鳥苷三磷酸 (PanSci Promo)_96
・2024/12/03 ・1592字 ・閱讀時間約 3 分鐘

-----廣告,請繼續往下閱讀-----

你是否也曾在抽衛生紙的瞬間,心頭閃過「這會不會讓更多森林消失」的擔憂?當最後一張衛生紙用完,內心的愧疚感也油然而生……但先別急著責怪自己,事實上,使用木製品和紙張也能很永續!只要我們選對來源、支持永續木材,你的每一個購物決策,都能將對地球的影響降到最低。

二氧化碳是「植物的食物」:碳的循環旅程

樹木的主食是水與二氧化碳,它們從空氣中吸收二氧化碳,並利用這些碳元素形成枝葉與樹幹。最終這些樹木會被砍伐,切成木材或搗成紙漿,用於各種紙張與木製品的製造。

木製品在到達其使用年限後,無論是被燃燒還是自然分解,都會重新釋放出二氧化碳。不過在碳循環中,這些釋出的二氧化碳,來自於原本被樹木「吸收」的那些二氧化碳,因此並不會增加大氣中的碳總量。

只要我們持續種植新樹,碳循環就能不斷延續,二氧化碳在不同型態間流轉,而不會大量增加溫室氣體在大氣中的總量。因為具備循環再生的特性,讓木材成為相對環保的資源。

但,為了木製品而砍伐森林,真的沒問題嗎?當然會有問題!

-----廣告,請繼續往下閱讀-----
從吸碳到固碳的循環

砍對樹,很重要

實際上,有不少木材來自於樹木豐富的熱帶雨林。然而,熱帶雨林是無數動植物的棲息地,它們承載著地球豐富的生物多樣性。當這些森林被非法砍伐,不僅生態系統遭到破壞,還有一個嚴重的問題–黃碳,也就是那些大量儲存在落葉與土壤有機質中的碳,會因為上方森林的消失重新將碳釋放進大氣之中。這些原本是森林的土地,將從固碳變成排碳大戶。

不論是黃碳問題,還是要確保雨林珍貴的生物多樣性不被影響,經營得當的人工永續林,能將對環境的影響降到最低,是紙漿和木材的理想來源。永續林的經營者通常需要注重環境保護與生態管理,確保砍下每顆樹木後,都有新的樹木接續成長。木材反覆在同一片土地上生成,因此不用再砍伐更多的原始林。在這樣的循環經營下,我們才能不必冒著破壞原始林的風險,繼續享用木製品。

人工永續林的經營者需要注重環境保護與生態管理,確保砍下每顆樹木後,都有新的樹木接續成長。

如何確保你手中的紙張來自永續林?

如果你擔心自己無意中購買了對環境不友善的商品,而不敢下手,只要認明FSC(森林管理委員會)認證與 PEFC(森林認證制度)認證標章,就能確保紙漿來源不是來自原始林。並且從森林到工廠、再到產品,流程都能被追蹤,為你把關每一張紙的生產過程合乎永續。

只要認明 FSC(森林管理委員會)認證與 PEFC(森林認證制度)認證標章,就能確保紙漿來源不是來自原始林。

家樂福「從 i 開始」:環境友善購物新選擇

不僅是紙張,家樂福自有品牌的產品都已經通過了環保認證,幫助消費者在日常生活中輕鬆實踐環保。選擇 FSC 與 PEFC 標章只是第一步,你還可以在購物時認明家樂福的「從 i 開始」價格牌,這代表商品在生產過程中已經符合多項國際認證永續發展標準。

-----廣告,請繼續往下閱讀-----

「從 i 開始」涵蓋十大環保行動,從營養飲食、無添加物、有機產品,到生態農業、動物福利、永續漁業、減少塑料與森林保育,讓你每一項購物選擇都能與環境保護密切相關。無論是買菜、買肉,還是日常生活用品,都能透過簡單的選擇,為地球盡一份力。

選擇 FSC 與 PEFC 標章只是第一步,你還可以在購物時認明家樂福的「從 i 開始」價格牌
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
214 篇文章 ・ 312 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

3
0

文字

分享

0
3
0
AI 破解生命密碼!AlphaFold 3 揭開蛋白質折疊的終極謎團
PanSci_96
・2024/10/07 ・1624字 ・閱讀時間約 3 分鐘

-----廣告,請繼續往下閱讀-----

AlphaFold的誕生:人工智慧的奇蹟

2018 年,Google 旗下的 DeepMind 團隊推出了第一代 AlphaFold,這是一款基於深度學習的 AI 模型,專門用於預測蛋白質的三維結構。AlphaFold 的命名取自「fold」一詞,意為折疊,指的是蛋白質在胺基酸鏈構成後迅速摺疊成其功能所需的三維結構。

AlphaFold 的突破在於其能夠預測出蛋白質折疊的可能性,這是一個傳統計算方法無法達到的領域。第一代 AlphaFold 在國際 CASP 比賽中取得了一定的成功,雖然其預測準確度尚未達到實驗室標準,但其潛力讓科學家們充滿期待。

歡迎訂閱 Pansci Youtube 頻道 獲取更多深入淺出的科學知識!

為什麼蛋白質結構預測如此重要?

蛋白質是生命的基石,它們的功能取決於其複雜的三維結構。然而,僅靠實驗技術來解析蛋白質的結構既昂貴又耗時。過去科學家依賴於如 X 光晶體繞射等技術來解析蛋白質的結構,然而這種方法雖然精確,但往往需要數年時間來得出一個結論。

到目前為止,人類已知的蛋白質數據庫中,全球僅解析了大約 22 萬種蛋白質的結構,這遠遠不足以滿足生物學和醫學研究的需求。尤其是人類的許多蛋白質結構仍然未知,這成為阻礙醫學進步的一個主要瓶頸,特別是在藥物開發和疾病治療上,因此如何加速對蛋白質的結構的解析至關重要。

-----廣告,請繼續往下閱讀-----

AlphaFold 2:技術飛躍

2020 年,AlphaFold 2 橫空出世,改進了多項技術,預測準確度大幅,幾乎達到了與實驗結果相媲美的程度。這一成就震驚了全球生物學界,許多科學家開始將 AlphaFold 2 應用於實際研究中。

AlphaFold 2 的成功源自於其三大技術革新:

  • 注意力機制:模仿人類的思維模式,從大局出發,關注蛋白質結構中的每一個細節,進而提高預測的準確性。
  • 多序列比對功能:通過搜尋類似的胺基酸序列,推斷新的蛋白質結構。
  • 端到端預測模式:利用深度學習神經網路,不斷反饋預測結果,持續優化模型。
AlphaFold 2 預測準確度大幅提升。 圖/envato

AlphaFold 3:下一代 AI 的力量

隨著 AlphaFold 2 的成功,DeepMind 並未停止其腳步。2024 年 5 月,AlphaFold 3 正式推出,這標誌著 AI 技術在生物學領域的又一個里程碑。AlphaFold 3 的改進再次吸引了科學界的目光,它強化了注意力機制,並引入了擴散模型,這使其能夠更快且更準確地預測複合蛋白質的結構。

擴散模型是一項關鍵技術,它能夠生成大量的可能蛋白質結構,並快速篩選出最可能的解答。與此同時,AlphaFold 3 還內建了「減幻覺」功能,這讓其在產生結果時能夠避免過多不切實際的預測,提升了結果的可信度。

-----廣告,請繼續往下閱讀-----

AlphaFold 的實際應用:醫學與藥物開發

AlphaFold 3 的誕生,不僅是一個技術突破,還為醫學和藥物開發帶來了巨大的希望。過去,癌症治療中的標靶藥物需要經過漫長的實驗才能確定其作用原理,然而現在,通過 AlphaFold 的預測,科學家可以更加精確地針對癌細胞中的錯誤蛋白質,設計出更有效的藥物。

除此之外,AlphaFold 3 還在抗病毒藥物、抗生素以及阿茲海默症等領域展現了潛力。其能夠預測蛋白質與其他分子(如DNA、RNA)的交互作用,這使得研發新藥的過程大大加速。

AlphaFold 3 的挑戰與未來

儘管 AlphaFold 3 取得了驚人的進展,但其仍然面臨一些挑戰。首先,目前 AlphaFold 3 的模型尚未完全開源,這限制了研究人員對其內部運作的了解。為此,一些科學家已聯名要求 DeepMind 開放其程式碼,以便進行更深入的研究和應用。

不過,隨著 AlphaFold 3的逐步推廣,生物學家相信它將繼續改變生物學研究的方式。未來,這項技術有望在解決更多未解難題中發揮關鍵作用,並為醫學領域帶來更大的突破。

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----

討論功能關閉中。

0

1
0

文字

分享

0
1
0
免費字幕君!怎麼用 AI 語音辨識幫你自動生成字幕?
泛科學院_96
・2024/07/08 ・2458字 ・閱讀時間約 5 分鐘

-----廣告,請繼續往下閱讀-----

下載 Youtube 影片、自動生成影片逐字稿、AI 智慧翻譯、匯出雙語 SRT 字幕、字幕內嵌 MP4 影片,甚至是把你的電腦當成 AI 運算伺服器、使用多模態 AI 模型來做圖片辨識……這一切的一切通通都免費,敢有可能 (Kám ū khó-lîng)?

今天的影片要來跟你分享開源 AI 套件 Ollama,這個開源套件AJ 最近上課演講工作坊逢人必教。

今天的影片,我們要手把手教你使用 Ollama 在你的電腦裡執行各種免費開源 AI 模型,希望你能跟我一樣成為 AI 暈船仔……Ollama 真香……啊扯遠了,我們沒有點數可以送。

今天的影片會分成三個部分:

-----廣告,請繼續往下閱讀-----
  1. Ollama 安裝與模型下載
  2. 結合 Memo 翻譯影片字幕
  3. 用多模態模型做圖片辨識

Ollama 安裝與模型下載

首先我們要先安裝 Ollama:

來到 ollama.com 點選 Download,下載適合自己的版本後進行安裝,安裝完畢之後,啟動 Ollama。以我的電腦來說右上角就會出現一個小小的 Ollama 圖示,這樣就成功安裝囉!

接著我們需要下載 AI 模型到你的電腦:

回到 Ollama 首頁,點選右上角 Models,這邊就會列出所有官方支援的模型,比如最近很流行的 Meta LLAMA 3、微軟的 Phi3、法國 Mistral AI 公司的 Mistral、Google Gemini 模型的開源版 Gemma 都有,你可以挑選喜歡的來測試。

-----廣告,請繼續往下閱讀-----

比如我點選 LLAMA 3 的連結,模型頁面有兩個地方要注意:一是模型大小,LLAMA3 是 4.7G,一般而言要玩大模型,電腦記憶體至少 16G,預算夠就 24G 不嫌多;如果你是使用一般文書電腦,記憶體 8G 的話,建議你現在馬上停止你的任何動作。我有測試過電腦會直接當機……不要說我沒有提醒你。

點開 Latest 選單可以依照需求選擇不同版本的模型:

不過我們直接點選最右邊複製執行指令,打開電腦的終端機程式,或著命令提示字元,貼上,這樣電腦就會開始下載並且自動安裝囉。

你可以用 ollama list 指令查看現在電腦內有哪些模型,如果硬碟容量有限,用 ollama rm 後面加上模型名稱可以刪除模型。比如:ollama rm llama3。我們這邊另外安裝 llava 模型:ollama run llava,這樣準備工作就完成囉。

-----廣告,請繼續往下閱讀-----

Ollama + memo

最近只要演講上課,我一定會分享 Memo 這套好用的軟體,我們之前也有一支影片分享他的用法。

最近 Memo 更新之後,我們就可以直接使用 Ollama 結合特定的模型來進行字幕的翻譯。舉例來說,我們打開 memo,複製 Youtube 網址;我們用這支 楊立昆 的演講,貼上網址,開始下載,下載完畢後使用電腦進行語音辨識,接著我們就可以使用 Ollama 搭配剛剛準備好的 LLama3 模型來做翻譯!


翻譯完畢之後就可以匯出 SRT 字幕


如果你本身是影片創作者,這招就可以輕鬆製作你的 SRT 字幕,再也不用花時間對字幕時間軸了。

-----廣告,請繼續往下閱讀-----

或者你要把影片字幕直接內嵌在做簡報的時候播放影片:


匯出 MP4 格式,語言選雙語。如果你還沒用過這招處理影片,我強烈建議你一定要試試看!

Ollama + Enchanted

接下來我們要分享另一套非常實用的工具——Enchanted。他也是開源,可以讓原本是文字介面的 Ollama
提供類似 ChatGPT 的對話視窗,甚至支援圖片辨識的多模態模型 llava,Mac 用戶可以直接去 App Store 免費安裝。


同時開啟 Ollama 跟 Enchanted LLM:

-----廣告,請繼續往下閱讀-----


就擁有一個漂亮的視窗介面,可以優雅的啟用各種想要測試的 AI 模型,他甚至有手機版 APP!用手機連線自己的蘋果電腦跑 AI 模型?這……這,真的可以免費用嗎?

讓我來試試看!

首先要先安裝 ngrok 這套程式,選擇自己的作業系統然後下載。Windows 用戶應該直接安裝就可以了,Mac 的用戶在終端機執行這行 Sudo 指令把程式解壓縮到 user local bin 資料夾,接著註冊一個免費的 ngrok 帳號。

複製 ngrok config 指令,貼回自己電腦的終端機,把連線金鑰寫入自己的電腦。

-----廣告,請繼續往下閱讀-----

最後一步,啟動連線,指令是:ngrok http 11434 –host-header=”localhost:11434″

一切順利的話就會看到類似這個畫面。

然後把 forwarding 的網址複製,打開 iPhone 或 iPad 的 Enchanted app,在設定 Setting 裡面把 Ollama 網址貼上,這樣就可以遠端調用電腦的 Ollama 來使用 AI 模型,比如選用稍早下載的 LLava 多模態模型。

傳一張照片,問它這是什麼?

-----廣告,請繼續往下閱讀-----


是不是非常神奇呢?
快練習把 ollama、ngrok 跟 Enchanted 串起來跟朋友炫耀吧!

總結

今天的影片跟各位分享了基於 Ollama 這個開源 AI 套件的各種有趣應用,你是否有成功在 iphone 上打造自己的 AI 服務呢?

  1. 太複雜了我決定躺平
  2. 笑話,我可是尊榮的 GPT Plus 用戶
  3. 沒有 Mac 電腦不能玩……嗚嗚嗚
  4. 你怎麼不介紹那個 ooxx Ollama 套件

如果有其他想看的 AI 工具測試或相關問題,也可以留言告訴我們~

更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

泛科學院_96
44 篇文章 ・ 52 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!