各位有看 Nvidia 黃老闆在 GTC 開發者大會的演講了嗎?
在演講當中出現了一張簡報——注意看,裡面有GPT-1、GPT-2、GPT-3,還有……啊?GPT-MoE?然後是這張簡報,90 天就可以完成 1.8 個 Trillion 參數的 MoE 模型訓練,是 18 後面 11 個零,一兆八千萬個參數。
然後同一個禮拜 OpenAI 創辦人上了 MIT 麻省理工學院的 Lex Fredman 的 Podcast 專訪,親口證實了 GPT-5 正在開發。嗯……這有點意思,那個 GPT-MoE 究竟是不是傳說中的 GPT-5 呢?
所以今天,就要來跟你分享三個問題:
- 什麼是 MoE?GPT-MoE 是 GPT-5 嗎?
- 有哪些 AI 模型運用了 MoE 技術?
- 我要怎麼在自己的電腦上運行 MoE 模型?
希望對你未來選擇 AI 模型與服務有提供一點方向。
如果你想要詳細的安裝教學,歡迎成為頻道會員跟我們敲碗或者使用超級感謝催促我們製作,在這邊先感謝你的支持!
有其他想要看的 AI 測試或相關問題,也可以留言分享喔~
更多、更完整的內容,歡迎上泛科學院的 youtube 頻道觀看完整影片,並開啟訂閱獲得更多有趣的資訊!