跳到内容

TODAY · 今日 AI

Google 发布 Gemma 4 开源模型家族,31B Dense 上 Arena 开源榜第三

四个尺寸一次到位 — 边缘设备用的 E2B / E4B、平衡型 26B MoE、品质顶规 31B Dense。31B 在 Arena AI 开源榜排第三、26B 排第六,授权维持 Apache 2.0 商用可用。原生支持 function calling、agent 工作流、视觉 + 音频输入,上下文长度拉到 256K。对中文圈意义:Gemma 系列每代都被当成本地端微调起点,4 代尺寸更全 + 授权更宽松,自架推理跟微调的成本进一步下探。

发布日期: 2026-05-05深度报道
登入以收藏

Google 这次同步推四个尺寸,把边缘到云端全段一次填满:

  • E2B(Effective 2B):边缘设备取向,设计给手机、树莓派级硬件跑
  • E4B(Effective 4B):同样边缘优化但能力上一阶
  • 26B MoE(Mixture of Experts):介于速度跟品质之间的折衷,实际启用参数小于 26B
  • 31B Dense:旗舰版,品质最强

实测上 31B Dense 在 Arena AI 公开榜的开源组排第三、26B MoE 排第六。Google 官方说法 "outcompetes models 20x its size",意思是同等品质下 Gemma 4 比体型大 20 倍的闭源模型还强。

几个技术重点值得注意:

  1. 256K 上下文长度:直接拉到主流商用闭源模型水准,RAG 跟长文档处理场景不再卡上下文
  2. 原生多模态输入:视觉 + 音频原生支持,不需要外挂编码器
  3. Agent 工作流原生支持:function calling、多步推理、工具调用都是训练时就涵盖,不是事后微调补上
  4. Apache 2.0 商用可用:跟 Gemma 3 一样宽松的授权,商业部署不用担心授权变动

对中文圈开发者意义:过去 Gemma 系列就被当成本地端微调的起点,4 代把尺寸带宽到 2B-31B 全段、授权保持宽松、能力覆盖边缘到云端。对自架推理(vLLM、llama.cpp、Ollama 都首发支持)的团队,这代的选择弹性是过去三代加起来最大的。配合上周 DeepSeek V4 跟智谱 GLM-5 的开源动作,2026 上半年的开源模型生态圈密度已经逼近商用闭源。

来源

标签

model-releasegooglegemmaopen-sourcemoe

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more