DeepMind 4 月发布 Gemma 4 系列,共 4 个尺寸:E2B、E4B、26B MoE、31B 稠密版,全部采 Apache 2.0 授权(完全可商用)。
官方排名:31B 在 LMSYS Arena 文字排行榜排第 3、26B 排第 6,DeepMind 主张「同尺寸下击败 20 倍大的模型」。
对开发者的差别:
- 原生支持多步推理跟 agent 工作流(函式呼叫、结构化 JSON 输出)
- 原生视觉 + 音讯处理,不用外接
- 上下文窗 128K-256K
- 支持 140+ 语言
- 上架平台覆盖 Hugging Face、Kaggle、Ollama、Google AI Studio、vLLM、llama.cpp、NVIDIA NIM、LM Studio — 本地跑、云端跑、边缘跑都能挑
意义:这次 DeepMind 不再只是「跟着做开源」,而是用尺寸效率打主流派 Llama / Qwen / Mistral 的同尺寸对手。如果 Arena 排名站得住,小团队用开源做领域微调的起点被往上拉一阶,厂商绑定的焦虑也减一些。