0

0
0

文字

分享

0
0
0

花蓮外海發現「鯨喜」:角島鯨

PanSci_96
・2017/05/22 ・1374字 ・閱讀時間約 2 分鐘 ・SR值 552 ・八年級
相關標籤:

  • 首圖:Youtube影片截圖
  • 相關資料由泛科學編輯部 y 編整理

台灣花蓮的多羅滿賞鯨船前幾天在花蓮外海拍攝到一鬚鯨影像,經日本東京國立自然史博物館山田格博士根據照片特徵判斷,幾乎確認是「角島鯨」的罕見活體紀錄!角島鯨究竟有多神秘?為什麼會引起熱烈的討論?一起來了解吧:

角島鯨(Balaenoptera omurai),於 2003 年由三位日本科學家:和田志郎、大石雅之、山田格命名並在《 Nature 》上發表,牠以 omurai 為名是為了紀念日本研究鯨類的重要學者、曾任日本鯨類研究所所長的大村秀雄博士。

角島鯨外型與長鬚鯨(Balaenoptera physalus)、布氏鯨(Balaenoptera brydei)等鬚鯨科(Balaenopteridae)的鯨魚相似,但長鬚鯨體型較長(約 18~26 公尺),而屬於中型鯨的角島鯨成年鯨的身長大約只有 11 公尺左右;角島鯨亦有不同於長鬚鯨的身體特徵,例如「角島鯨右側嘴喙偏白、左側嘴喙深色的不對稱特徵,以及胸鰭前端為白色等等」,但這些特徵往往在海上目擊時不容易被辨識。

鬚鯨科的親緣關係樹譜。圖片來源:21世紀新發現的大型鯨—角島鯨

由於極少找到角島鯨的活體,科學家是透過標本比對、DNA 分析鑑定等方式才確定了角島鯨為新種鯨魚;這期間他們跑遍了世界各地去紀錄、觀察並精細測量當地的角島鯨標本,其中亦包含國立台灣科學博物館從 1990 年以來搜集的四件在台灣死亡的角島鯨標本。

保存於台灣台中市國立自然科學博物館的角島鯨頭骨。source:wikimedia

角島鯨很少在鏡頭下出現,之前僅有 2015 年海洋科學家曾在馬達加斯加外海捕捉到的活體角島鯨的身影。研究團隊最初是在 2011 年注意到了這隻角島鯨,之後數年亦在附近的海域觀察到了 44 組群體,透過採集皮膚樣本做 DNA 比對,確認證實這些鯨魚群體為角島鯨。這些研究觀察於 2015 年 10 月發表於《Royal Society Open Science》。

-----廣告,請繼續往下閱讀-----

這次(2017 年 5 月 22 日)在花蓮外海發現的角島鯨,一開始也被誤認為鬚鯨,後來有日本的鯨豚研究者 Daniel Yasutaka Imai 指出可能是角島鯨後,發現角島鯨的賞鯨業者即藉由黑潮海洋文教基金會與科博館姚秋如、以及其中一位角島鯨的命名學者日本東京國立自然史博物館山田格博士聯繫,透過照片分析特徵後目前認定影像中的鯨魚為角島鯨。

關於角島鯨還有很多的疑問和未知,牠的生活史、習性及食性都還需要有更多的觀察和研究才有可能漸漸明朗;生物多樣性資料庫系統建立與完善亦是其中重要的一環,期望這次的「鯨喜」不只是個驚喜。

相關資料:

文章難易度
PanSci_96
1214 篇文章 ・ 2076 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

0

4
0

文字

分享

0
4
0
快!還要更快!讓國家級地震警報更好用的「都會區強震預警精進計畫」
鳥苷三磷酸 (PanSci Promo)_96
・2024/01/21 ・2584字 ・閱讀時間約 5 分鐘

本文由 交通部中央氣象署 委託,泛科學企劃執行。

  • 文/陳儀珈

從地震儀感應到地震的震動,到我們的手機響起國家級警報,大約需要多少時間?

臺灣從 1991 年開始大量增建地震測站;1999 年臺灣爆發了 921 大地震,當時的地震速報系統約在震後 102 秒完成地震定位;2014 年正式對公眾推播強震即時警報;到了 2020 年 4 月,隨著技術不斷革新,當時交通部中央氣象局地震測報中心(以下簡稱為地震中心)僅需 10 秒,就可以發出地震預警訊息!

然而,地震中心並未因此而自滿,而是持續擴建地震觀測網,開發新技術。近年來,地震中心執行前瞻基礎建設 2.0「都會區強震預警精進計畫」,預計讓臺灣的地震預警系統邁入下一個新紀元!

-----廣告,請繼續往下閱讀-----

連上網路吧!用建設與技術,換取獲得地震資料的時間

「都會區強震預警精進計畫」起源於「民生公共物聯網數據應用及產業開展計畫」,該計畫致力於跨部會、跨單位合作,由 11 個執行單位共同策畫,致力於優化我國環境與防災治理,並建置資料開放平台。

看到這裡,或許你還沒反應過來地震預警系統跟物聯網(Internet of Things,IoT)有什麼關係,嘿嘿,那可大有關係啦!

當我們將各種實體物品透過網路連結起來,建立彼此與裝置的通訊後,成為了所謂的物聯網。在我國的地震預警系統中,即是透過將地震儀的資料即時傳輸到聯網系統,並進行運算,實現了對地震活動的即時監測和預警。

地震中心在臺灣架設了 700 多個強震監測站,但能夠和地震中心即時連線的,只有其中 500 個,藉由這項計畫,地震中心將致力增加可連線的強震監測站數量,並優化原有強震監測站的聯網品質。

-----廣告,請繼續往下閱讀-----

在地震中心的評估中,可以連線的強震監測站大約可在 113 年時,從原有的 500 個增加至 600 個,並且更新現有監測站的軟體與硬體設備,藉此提升地震預警系統的效能。

由此可知,倘若地震儀沒有了聯網的功能,我們也形同完全失去了地震預警系統的一切。

把地震儀放到井下後,有什麼好處?

除了加強地震儀的聯網功能外,把地震儀「放到地下」,也是提升地震預警系統效能的關鍵做法。

為什麼要把地震儀放到地底下?用日常生活來比喻的話,就像是買屋子時,要選擇鬧中取靜的社區,才不會讓吵雜的環境影響自己在房間聆聽優美的音樂;看星星時,要選擇光害比較不嚴重的山區,才能看清楚一閃又一閃的美麗星空。

-----廣告,請繼續往下閱讀-----

地表有太多、太多的環境雜訊了,因此當地震儀被安裝在地表時,想要從混亂的「噪音」之中找出關鍵的地震波,就像是在搖滾演唱會裡聽電話一樣困難,無論是電腦或研究人員,都需要花費比較多的時間,才能判讀來自地震的波形。

這些環境雜訊都是從哪裡來的?基本上,只要是你想得到的人為震動,對地震儀來說,都有可能是「噪音」!

當地震儀靠近工地或馬路時,一輛輛大卡車框啷、框啷地經過測站,是噪音;大稻埕夏日節放起絢麗的煙火,隨著煙花在天空上一個一個的炸開,也是噪音;台北捷運行經軌道的摩擦與震動,那也是噪音;有好奇的路人經過測站,推了推踢了下測站時,那也是不可忽視的噪音。

因此,井下地震儀(Borehole seismometer)的主要目的,就是盡量讓地震儀「遠離塵囂」,記錄到更清楚、雜訊更少的地震波!​無論是微震、強震,還是來自遠方的地震,井下地震儀都能提供遠比地表地震儀更高品質的訊號。

-----廣告,請繼續往下閱讀-----

地震中心於 2008 年展開建置井下地震儀觀測站的行動,根據不同測站底下的地質條件,​將井下地震儀放置在深達 30~500 公尺的乾井深處。​除了地震儀外,站房內也會備有資料收錄器、網路傳輸設備、不斷電設備與電池,讓測站可以儲存、傳送資料。

既然井下地震儀這麼強大,為什麼無法大規模建造測站呢?簡單來說,這一切可以歸咎於技術和成本問題。

安裝井下地震儀需要鑽井,然而鑽井的深度、難度均會提高時間、技術與金錢成本,因此,即使井下地震儀的訊號再好,若非有國家建設計畫的支援,也難以大量建置。

人口聚集,震災好嚴重?建立「客製化」的地震預警系統!

臺灣人口主要聚集於西半部,然而此區的震源深度較淺,再加上密集的人口與建築,容易造成相當重大的災害。

-----廣告,請繼續往下閱讀-----

許多都會區的建築老舊且密集,當屋齡超過 50 歲時,它很有可能是在沒有耐震規範的背景下建造而成的的,若是超過 25 年左右的房屋,也有可能不符合最新的耐震規範,並未具備現今標準下足夠的耐震能力。 

延伸閱讀:

在地震界有句名言「地震不會殺人,但建築物會」,因此,若建築物的結構不符合地震規範,地震發生時,在同一面積下越密集的老屋,有可能造成越多的傷亡。

因此,對於發生在都會區的直下型地震,預警時間的要求更高,需求也更迫切。

-----廣告,請繼續往下閱讀-----

地震中心著手於人口密集之都會區開發「客製化」的強震預警系統,目標針對都會區直下型淺層地震,可以在「震後 7 秒內」發布地震警報,將地震預警盲區縮小為 25 公里。

111 年起,地震中心已先後完成大臺北地區、桃園市客製化作業模組,並開始上線測試,當前正致力於臺南市的模組,未來的目標為高雄市與臺中市。

永不停歇的防災宣導行動、地震預警技術研發

地震預警系統僅能在地震來臨時警示民眾避難,無法主動保護民眾的生命安全,若人民沒有搭配正確的防震防災觀念,即使地震警報再快,也無法達到有效的防災效果。

因此除了不斷革新地震預警系統的技術,地震中心也積極投入於地震的宣導活動和教育管道,經營 Facebook 粉絲專頁「報地震 – 中央氣象署」、跨部會舉辦《地震島大冒險》特展、《震守家園 — 民生公共物聯網主題展》,讓民眾了解正確的避難行為與應變作為,充分發揮地震警報的效果。

-----廣告,請繼續往下閱讀-----

此外,雖然地震中心預計於 114 年將都會區的預警費時縮減為 7 秒,研發新技術的腳步不會停止;未來,他們將應用 AI 技術,持續強化地震預警系統的效能,降低地震對臺灣人民的威脅程度,保障你我生命財產安全。

文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
193 篇文章 ・ 297 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

0
0

文字

分享

0
0
0
社群行銷、小編福音!Canva AI 免費設計工具登場
泛科學院_96
・2024/02/27 ・2169字 ・閱讀時間約 4 分鐘

知名的線上設計平台 Canva 開放了基於人工智慧設計工具 Magic Design 免費給大家試用,號稱 AI 可以幫你製作簡報投影片、社群行銷圖片、限時動態短片、傳單海報,甚至是 T-shirt 設計等等,一切都只需要一句話或一張圖就會自動完成,真的有那麼方便嗎?

我們今天的影片就帶著大家來測試整個設計流程吧:

首先我們要先將 Canva 的介面改成英文介面,取得測試的資格。使用 Gmail 帳號登入 Canva 之後,點選右上角的名字圖示,找到帳號設定,然後將語言改成 English (US),接著點一下左上角的 Canva 圖示回到首頁之後,我們直接搜尋 Magic Design 這個關鍵字,如果你有看到 Try Magic Design 就可以用囉!

接著我們點選右邊的 Insert Media 按鈕,再來選擇 Choose file,可以上傳你要製作的原始素材圖片。

-----廣告,請繼續往下閱讀-----

上傳之後系統會分析素材內容,提供七個不同的樣板供你選擇,就我自己的測試,會出現包括 Instagram 貼文配圖、影片、Pinterest 配圖、Facebook 封面圖、 Youtube 影片縮圖、賀卡、傳單、Facebook 貼文配圖、等等等。 

但若生成的樣板沒有你需要的形式,可以點選左上方的 Category 選單,尋找你需要的圖片用途,比如我這邊挑選 Social Media 的 Instagram Post,就會只推薦正方形的 IG 貼文配圖格式,另外也可以點選右上方的 Style 下拉選單,變更設計的氛圍 Vibe 或配色風格 Style,好了之後點選 See Result 就可以看到不同的氛圍配色以及不同型態的結果囉。

如果你有看到喜歡的設計,點選圖片之後再點選 Customize this template 進入編輯頁面,點兩下文字元件修改成適合的內容之後,點選右上角的 Share 按鈕,找到裡面的 Download,File Type 檔案格式預設是 PNG,確認沒問題就可以點選 Download 下載圖片囉。

我自己試用下來,因為每次生成的樣板都不相同,每次點 See Result 都有一種開獎的感覺,我覺得非常適合給需要很多靈感的創意工作者,比如社群小編,或者產品企劃等等。

-----廣告,請繼續往下閱讀-----

今天要分享的第二招是將 Canva 與 ChatGPT 結合,來玩一套組合拳。

逢年過節大家總是會製作賀卡或賀圖送人,比如我想來製作一張端午節的賀卡,但我不想要一張圖傳給一百個人,我要讓每一張圖片都有不一樣的端午賀辭,還打上對方的名字,這樣不就留下好印象了。

首先,我們開啟 ChatGPT,

請幫我生成 10 句不同的端午節賀辭,另外生成 10 個不同的人名,呈現的方式為帶編號的表格。

GPT 會除了生成端午賀辭之外,也可以找適合的插圖,

-----廣告,請繼續往下閱讀-----

請推薦我幾張端午節的應景圖片, 顯示圖片請透過 markdown 語法 (https://source.unsplash.com/960×640/?<關鍵詞>)

挑一張喜歡的圖,右鍵點選下載下來。

接著我們回到 Canva,啟動 Magic Design,Insert Media,點選上傳剛剛下載的圖片。在 Category 選擇 Social Media 的 Facebook Post,挑選一個喜歡的,點開之後跟上一個範例一樣點選 Customize this template,進入編輯畫面之後首先調整一下賀卡的用語,比如我改成親愛的 xx 吾友,中間保留賀辭的空位,後面加上「泛科學院敬上」。

好了之後,我們在左邊的功能選到找到 Apps 裡面的 Bulk Create 功能。這邊顯示這是需要專業版,你可以啟用試用 30 天,如果是學生或老師的話可以申請教育帳號,非營利組織工作者可以申請公益帳號,獲得專業版的功能。

我換一帳號來做,我們點選 Enter Data Manually,將 ChatGPT 的端午賀辭貼上,人名當然你也要稍微調整一下,為了辨識方便,我把上面的標題改成 Name 跟 Words,好了之後點選 Done 按鈕。

-----廣告,請繼續往下閱讀-----

接著到人名的元件上點選右鍵,選擇 Connect to Name,主要的賀辭點右鍵,選擇 Connect to words,點選 Continue,確認合成,Generate,客製化的端午節貼圖就做好囉!

Magic Design 還可以做簡報,在首頁開一個新的 Presentation,進入簡報畫面之後,右下角的星星圖示點開,選擇 Magic Design,只需要給他幾個關鍵字,他就可以快速製作幾張簡單的範本,比如我這邊輸入,端午節,划龍舟,粽子,龍舟,好了之後點選 Enter,只需要幾秒鐘,Canva 就會生成八頁左右的簡報可供使用,內容圖片與文字也是有一些基礎的描述,不過目前看起來有點可惜還只能顯示英文,不過我很期待這個功能後續的發展,或許可以跟 Gamma 或者 Power point 一拼。

今天分享了 Canva 的 Magic Design 的 AI 設計樣式生成、ChatGPT 與 Canva 的文字合併技巧另外還稍微帶到簡報生成的功能,你覺得哪一個技巧對你最實用呢?

  1. Magic Design 生成社群行銷圖片
  2. ChatGPT 結合 Canva 的大量圖片製作
  3. Magic Design 關鍵字生成投影片模版

請你在下面留言與我分享你的看法!

如果這支影片對你有幫助的話,請幫我在影片下方點個喜歡,並且把這支影片分享給需要的朋友,最後別忘了訂閱泛科學院的頻道,我們下支影片再見囉。

-----廣告,請繼續往下閱讀-----

更多、更完整的內容,歡迎上科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

討論功能關閉中。

泛科學院_96
22 篇文章 ・ 25 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!

0

0
0

文字

分享

0
0
0
OpenAI 新突破!為什麼 Sora 可以產出這麼流暢的動畫?你不可錯過的技術文件大解密!
泛科學院_96
・2024/02/26 ・2968字 ・閱讀時間約 6 分鐘

什麼?不需要拍攝團隊與剪輯師,一句話就可以生成短片?!

OpenAI 近來發布的短影片生成器——Sora,能依據各種「咒語」生成難分真偽的流暢影片。

是什麼技術讓它如此強大?讓我們來一探究竟吧!

你被 Sora 了嗎?這幾天 Sora 佔據了各大版面,大家都在說 OpenAI 放大絕,不止 YouTuber,連好萊塢都要崩潰啊啊啊!

但真有這麼神嗎?我認真看了下 Sora 的官方說明以及參考資料,發現這東西,還真的挺神的!這東西根本不是 AI 取代人或單一產業,而是 AI 變成人,根本是通用型人工智慧 AGI 發展的里程碑啊!

別怕,要讓 Sora 為你所用,就先來搞懂到底是什麼神奇的訓練方法讓 Sora 變得那麼神,這就要從官網說明中唯一的斜體字——diffusion transformer 說起了。

這集我們要來回答三個問題,第一,Sora 跟過去我們產圖的 Midjourney、Dall-E,有什麼不同?第二,Diffusion transformer 是啥?第三,為什麼 Diffusion transformer 可以做出這麼絲滑的動畫?

-----廣告,請繼續往下閱讀-----

最後,我想說說我的感想,為什麼我會覺得 Sora 很神,不只是取代坐在我旁邊的剪接師,而是 AI 變人的里程碑。

我們已經很習慣用 Midjourney、Dall-E 這些 Diffusion 模型產圖了,從 logo 到寫真集都能代勞,他的原理我們在泛科學的這裡,有深入的解說,簡單來說就像是逐格放大後,補上圖面細節的過程。不過如果你要讓 Diffusion 產影片,那後果往往是慘不忍睹,就像這個威爾史密斯吃麵的影片,每一格影格的連續性不見得相符,看起來就超級惡趣味。

要影格連續性看來合理……咦?像是 GPT-4 這種 tranformer 模型,不是就很擅長文字接龍,找關聯性嗎?要是讓 transformer 模型來監督 Diffusion 做影片,撒尿蝦加上牛丸,一切不就迎刃而解了嗎?

沒錯,OpenAI 也是這樣想的,因此才把 Sora 模型稱為「Diffusion transformer」,還在網站上用斜體字特別標示起來。

-----廣告,請繼續往下閱讀-----
圖/OpenAI

但說是這樣說啦,但 transformer 就只會讀文本,做文字接龍,看不懂影片啊,看不懂是要怎麼給建議?於是,一個能讓 transformer 看懂圖片的方式——patch 就誕生啦!

ChatGPT 理解內容的最小單位是 token,token 類似單詞的文字語意,ChatGPT 用 token 玩文字接龍,產生有連續性且有意義句子和文章。

那 Patch 呢?其實就是圖片版的 token,讓 ChatGPT 可以用圖片玩接龍,玩出有連貫性的圖片。

Sora 官方提供的訓練說明圖上,最後所形成的那些方塊就是 patch,這些 patch 是包含時間在內的 4D 立體拼圖,可以針對畫面與時間的連續性進行計算。

-----廣告,請繼續往下閱讀-----
圖/OpenAI

那這個 patch 要怎麼做呢?以 Sora 提供的參考文獻 15 來說明會比較容易懂,patch 是將影像切成一樣等大的區塊後,進行編碼、壓縮,產生類似 ChatGPT 能分析的文字語意 token。

有了這些 patch 後,Transformer 就可以計算 patch 之間的關聯性形成序列,例如論文中被分割在中上與右上的兩塊藍天,就會被分類在天空,之後算圖的時候,就會知道這兩塊 patch 是一組的,必須一起算才行。

也就是說,畫面上的這塊天空已經被鎖定,必須一起動。

雖然這篇論文只提圖片,但影片的處理只要再加上 patch 間的先後順序,這樣就能讓 transformer 理解隨時間改變的演化。

-----廣告,請繼續往下閱讀-----

同樣是上面被鎖定的天空,多了先後順序,就相當於是增加了前一個影格與後一個影格限制條件,讓這塊天空在畫面中移動時,被限縮在一定範圍內,運動軌跡看起來更加合理。

而他的成果,就是在 Sora 官網上看到的驚人影片,那種絲滑的高畫質、毫無遲滯且高度合理、具有空間與時間一致性的動作與運鏡,甚至可以輕易合成跟分割影片。

不過啊,能把 Sora 模型訓練到這個程度,依舊是符合 OpenAI 大力出奇跡的硬道理,肯定是用了非常驚人的訓練量,要是我是 Runway 或 Pika 這兩家小公司的人,現在應該還在咬著牙流著血淚吧。別哭,我相信很多人還是想要看威爾史密斯繼續吃義大利麵的。

在訓練過程中,Sora 從提取影像特徵,到形成有意義的 patch,到最後串聯成序列,如果你接觸過認知心理學,你會發現這其過程就跟認知心理學描述人類處理訊息的過程如出一轍。都是擷取特徵、幫特徵編碼形成意義、最後組合長期記憶形成序列,可以說 Sora 已經接近複製人類認知過程的程度。

-----廣告,請繼續往下閱讀-----

這邊是我的推測,影片中那些逼真的物理效果,不是有特定的物理模型或遊戲引擎在輔助,而是在 patch 的訓練與序列推理中,就讓 Sora 理解到要讓物體這樣動,看起來才會是真實的,這跟 GPT-4 並不需要文法引擎是一樣的,只要玩文字接龍,就能生成流暢又有邏輯的文字跟代碼。但這也是為什麼,GPT 依舊很會胡說八道,產生幻覺。如果不是這樣,我很難想像 Sora 會算出這種影片。

Sora 能理解並產生人類眼睛能接收的視覺影片,同樣的技術若能做出聽覺、觸覺等其他人類感官,這樣我們被 AI 豢養的時刻是不是就越來越近了呢?

後 Sora 時代到底會發生什麼事,老實講我不知道,上面提到的 diffusion transformer 或 patch,都是近一年,甚至是幾個月前才有研究成果的東西。

臉書母公司 Meta 的首席人工智慧科學家 Yann Lecun 也在他自己的臉書公開抨擊 Sora 這種基於像素預測的技術註定失敗,但這篇感覺比較像是對自己的老闆 Zuckerberg 喊話:「欸這沒戲,不要叫我學 Sora,拿寶貴的運算資源去搞你的元宇宙。」是說今年初就有新聞說祖老闆 2024 年預計買超過 35 萬顆 H100 處理器,這明顯就是要搞一波大的吧,這就是我想要的血流成河。

-----廣告,請繼續往下閱讀-----

而且,從去年 ChatGPT 出來開始,我感覺就已經不是討論 AI 會怎麼發展,而是要接受 AI 必定會發展得越來越快,我們要怎麼面對 AI 帶來的機會與衝擊。

我們去年成立泛科學院,就是希望跟大家一起,透過簡單易懂的教學影片,把對 AI 的陌生跟恐慌,變成好奇與駕馭自如。Sora 或類似的模型應該可以協助我把這件事做得更好,可惜的的是目前 OpenAI 僅開放 Sora 給內部的 AI 安全團隊評估工具可能帶來的危害與風險,另外就是與少數外部特定的藝術家、設計師跟電影製片人確保模型用於創意專業領域的實際應用,若有新消息,我會再即時更新。

最後也想問問你,若能用上 Sora,你最想拿來幹嘛呢?歡迎留言跟我們分享。喜歡這支影片的話,也別忘了按讚、訂閱,加入會員,下集再見~掰!

更多、更完整的內容,歡迎上科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!

討論功能關閉中。

泛科學院_96
22 篇文章 ・ 25 位粉絲
我是泛科學院的AJ,有15年的軟體測試與電腦教育經驗,善於協助偏鄉NPO提升資訊能力,以Maker角度用發明解決身邊大小問題。與你分享人工智慧相關應用,每週更新兩集,讓我們帶你進入科技與創新的奇妙世界,為未來開啟無限可能!