Google 这次同步推四个尺寸,把边缘到云端全段一次填满:
- E2B(Effective 2B):边缘设备取向,设计给手机、树莓派级硬件跑
- E4B(Effective 4B):同样边缘优化但能力上一阶
- 26B MoE(Mixture of Experts):介于速度跟品质之间的折衷,实际启用参数小于 26B
- 31B Dense:旗舰版,品质最强
实测上 31B Dense 在 Arena AI 公开榜的开源组排第三、26B MoE 排第六。Google 官方说法 "outcompetes models 20x its size",意思是同等品质下 Gemma 4 比体型大 20 倍的闭源模型还强。
几个技术重点值得注意:
- 256K 上下文长度:直接拉到主流商用闭源模型水准,RAG 跟长文档处理场景不再卡上下文
- 原生多模态输入:视觉 + 音频原生支持,不需要外挂编码器
- Agent 工作流原生支持:function calling、多步推理、工具调用都是训练时就涵盖,不是事后微调补上
- Apache 2.0 商用可用:跟 Gemma 3 一样宽松的授权,商业部署不用担心授权变动
对中文圈开发者意义:过去 Gemma 系列就被当成本地端微调的起点,4 代把尺寸带宽到 2B-31B 全段、授权保持宽松、能力覆盖边缘到云端。对自架推理(vLLM、llama.cpp、Ollama 都首发支持)的团队,这代的选择弹性是过去三代加起来最大的。配合上周 DeepSeek V4 跟智谱 GLM-5 的开源动作,2026 上半年的开源模型生态圈密度已经逼近商用闭源。