跳到內容

TODAY · 今日 AI

Google 發布 Gemma 4 開源模型家族,31B Dense 上 Arena 開源榜第三

四個尺寸一次到位 — 邊緣裝置用的 E2B / E4B、平衡型 26B MoE、品質頂規 31B Dense。31B 在 Arena AI 開源榜排第三、26B 排第六,授權維持 Apache 2.0 商用可用。原生支援 function calling、agent 工作流、視覺 + 音訊輸入,上下文長度拉到 256K。對中文圈意義:Gemma 系列每代都被當成本地端微調起點,4 代尺寸更全 + 授權更鬆,自架推理跟微調的成本進一步下探。

發佈日期: 2026-05-05深度報導
登入以收藏

Google 這次同步推四個尺寸,把邊緣到雲端全段一次填滿:

  • E2B(Effective 2B):邊緣裝置取向,設計給手機、樹莓派級硬體跑
  • E4B(Effective 4B):同樣邊緣優化但能力上一階
  • 26B MoE(Mixture of Experts):介於速度跟品質之間的折衷,實際啟用參數小於 26B
  • 31B Dense:旗艦版,品質最強

實測上 31B Dense 在 Arena AI 公開榜的開源組排第三、26B MoE 排第六。Google 官方說法 "outcompetes models 20x its size",意思是同等品質下 Gemma 4 比體型大 20 倍的閉源模型還強。

幾個技術重點值得注意:

  1. 256K 上下文長度:直接拉到主流商用閉源模型水準,RAG 跟長文件處理場景不再卡上下文
  2. 原生多模態輸入:視覺 + 音訊原生支援,不需要外掛編碼器
  3. Agent 工作流原生支援:function calling、多步推論、工具呼叫都是訓練時就涵蓋,不是事後微調補上
  4. Apache 2.0 商用可用:跟 Gemma 3 一樣鬆的授權,商業部署不用擔心授權變動

對中文圈開發者意義:過去 Gemma 系列就被當成本地端微調的起點,4 代把尺寸帶寬到 2B-31B 全段、授權保持寬鬆、能力覆蓋邊緣到雲端。對自架推理(vLLM、llama.cpp、Ollama 都首發支援)的團隊,這代的選擇彈性是過去三代加起來最大的。配合上週 DeepSeek V4 跟智譜 GLM-5 的開源動作,2026 上半年的開源模型生態圈密度已經逼近商用閉源。

來源

標籤

model-releasegooglegemmaopen-sourcemoe

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more