跳到内容
Mixtral 8x7B logo

MODELS · 模型目录

Mixtral 8x7B

Mistral 经典开源 MoE,总 47B 但每 token 只激活 13B

mistralmistralopen source

规格

Context window
32,768
Max output
4,096
模态
text
Tool use
视觉
Streaming
License
apache-2.0
释出
2023-12-11

价格

Mixtral 8x7B(2023 年 12 月)是 Mistral 第一个 Apache 2.0 开源的 MoE 模型——8 个 7B expert,总共 47B 但每个 token 只激活 13B,推理速度像 7B 级但质量接近 30B+。32K 上下文。证明稀疏 MoE 可以干净开源的关键作品。后继:Mixtral 8x22B、Mistral Large 系列。

编辑试用心得

架构意义重要,后来每个开源 MoE(DeepSeek V3、Qwen MoE)都继承 Mixtral 推广的 pattern。新项目上线,Llama 3.3 70B 或 Qwen 2.5 72B 同等算力成本质量更高,中文 DeepSeek V3 直接碾压。Apache 2.0 纯度重要时(法务严格)留着,否则新模型通常更好。

评论

还没有人留评论。当第一个。

最后更新: 2026-04-29

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more