Google 這次同步推四個尺寸,把邊緣到雲端全段一次填滿:
- E2B(Effective 2B):邊緣裝置取向,設計給手機、樹莓派級硬體跑
- E4B(Effective 4B):同樣邊緣優化但能力上一階
- 26B MoE(Mixture of Experts):介於速度跟品質之間的折衷,實際啟用參數小於 26B
- 31B Dense:旗艦版,品質最強
實測上 31B Dense 在 Arena AI 公開榜的開源組排第三、26B MoE 排第六。Google 官方說法 "outcompetes models 20x its size",意思是同等品質下 Gemma 4 比體型大 20 倍的閉源模型還強。
幾個技術重點值得注意:
- 256K 上下文長度:直接拉到主流商用閉源模型水準,RAG 跟長文件處理場景不再卡上下文
- 原生多模態輸入:視覺 + 音訊原生支援,不需要外掛編碼器
- Agent 工作流原生支援:function calling、多步推論、工具呼叫都是訓練時就涵蓋,不是事後微調補上
- Apache 2.0 商用可用:跟 Gemma 3 一樣鬆的授權,商業部署不用擔心授權變動
對中文圈開發者意義:過去 Gemma 系列就被當成本地端微調的起點,4 代把尺寸帶寬到 2B-31B 全段、授權保持寬鬆、能力覆蓋邊緣到雲端。對自架推理(vLLM、llama.cpp、Ollama 都首發支援)的團隊,這代的選擇彈性是過去三代加起來最大的。配合上週 DeepSeek V4 跟智譜 GLM-5 的開源動作,2026 上半年的開源模型生態圈密度已經逼近商用閉源。