DeepMind 4 月發布 Gemma 4 系列,共 4 個尺寸:E2B、E4B、26B MoE、31B 稠密版,全部採 Apache 2.0 授權(完全可商用)。
官方排名:31B 在 LMSYS Arena 文字排行榜排第 3、26B 排第 6,DeepMind 主張「同尺寸下擊敗 20 倍大的模型」。
對開發者的差別:
- 原生支援多步推理跟 agent 工作流(函式呼叫、結構化 JSON 輸出)
- 原生視覺 + 音訊處理,不用外接
- 上下文窗 128K-256K
- 支援 140+ 語言
- 上架平台覆蓋 Hugging Face、Kaggle、Ollama、Google AI Studio、vLLM、llama.cpp、NVIDIA NIM、LM Studio — 本地跑、雲端跑、邊緣跑都能挑
意義:這次 DeepMind 不再只是「跟著做開源」,而是用尺寸效率打主流派 Llama / Qwen / Mistral 的同尺寸對手。如果 Arena 排名站得住,小團隊用開源做領域微調的起點被往上拉一階,廠商綁定的焦慮也減一些。