规格
- Context window
- 32,768
- Max output
- 4,096
- 模态
- text
- Tool use
- —
- 视觉
- —
- Streaming
- ✓
- License
- apache-2.0
- 释出
- 2023-12-11
价格
Mixtral 8x7B(2023 年 12 月)是 Mistral 第一个 Apache 2.0 开源的 MoE 模型——8 个 7B expert,总共 47B 但每个 token 只激活 13B,推理速度像 7B 级但质量接近 30B+。32K 上下文。证明稀疏 MoE 可以干净开源的关键作品。后继:Mixtral 8x22B、Mistral Large 系列。
编辑试用心得
架构意义重要,后来每个开源 MoE(DeepSeek V3、Qwen MoE)都继承 Mixtral 推广的 pattern。新项目上线,Llama 3.3 70B 或 Qwen 2.5 72B 同等算力成本质量更高,中文 DeepSeek V3 直接碾压。Apache 2.0 纯度重要时(法务严格)留着,否则新模型通常更好。
评论
还没有人留评论。当第一个。
最后更新: 2026-04-29