跳到内容

模型家族

Mistral 系列

Mistral (family)

Mistral AI 的模型家族,含 Mistral 7B、Mixtral 8x7B/8x22B(sparse MoE)、Mistral Large、Codestral,是欧洲旗舰 LLM 线,混合 open 与商业发布。

登入以收藏
Mistral 家族是巴黎 Mistral AI 的 LLM 线。重要模型:Mistral 7B(2023,发布时被广泛认为是最好的 7B 模型)、Mixtral 8x7B 跟 8x22B(2024,流行的 sparse MoE)、Mistral Large(商业前沿)、Codestral(coding 专用)、Mistral Small / Medium / Large(商业等级)、Pixtral(multimodal)。 它重要的原因是:Mistral 模型一直打超出自己级别。Mistral 7B 发布时打败多个 13B 竞争者,展示谨慎训练跟架构选择可以超越纯粹的参数数。Mixtral 8x7B 把 MoE 架构带入 open-source 主流——47B 总参数但每 token 只有 ~12B active,给出 13B 级速度配上好得多的质量。早期模型的 Apache-2 授权让它们成为商业应用的默认骨干。 家族随混合 open / closed 策略演进:较小模型倾向公开释出,前沿的 Mistral Large 等是商业。公司跟 Microsoft 合作把模型 host 在 Azure,并运营 Le Chat 消费者助手。 对在意数据主权跟降低对美中依赖的欧洲开发者,Mistral 是常见选择。在消费者硬件自部署,Mistral 7B 跟 Mixtral 仍是热门默认选项。延伸阅读:Mistral AI、Mixture of Experts、Llama family、open-source。

最后更新: 2026-04-29

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more