跳到內容

模型家族

Mistral 系列

Mistral (family)

Mistral AI 的模型家族,含 Mistral 7B、Mixtral 8x7B/8x22B(sparse MoE)、Mistral Large、Codestral,是歐洲旗艦 LLM 線,混合 open 與商業發佈。

登入以收藏
Mistral 家族是巴黎 Mistral AI 的 LLM 線。重要模型:Mistral 7B(2023,發佈時被廣泛認為是最好的 7B 模型)、Mixtral 8x7B 跟 8x22B(2024,流行的 sparse MoE)、Mistral Large(商業前緣)、Codestral(coding 專用)、Mistral Small / Medium / Large(商業等級)、Pixtral(multimodal)。 它重要的原因是:Mistral 模型一直打超出自己級別。Mistral 7B 發佈時打敗多個 13B 競爭者,展示謹慎訓練跟架構選擇可以超越純粹的參數數。Mixtral 8x7B 把 MoE 架構帶入 open-source 主流——47B 總參數但每 token 只有 ~12B active,給出 13B 級速度配上好得多的品質。早期模型的 Apache-2 授權讓它們成為商業應用的預設骨幹。 家族隨混合 open / closed 策略演進:較小模型傾向公開釋出,前緣的 Mistral Large 等是商業。公司跟 Microsoft 合作把模型 host 在 Azure,並營運 Le Chat 消費者助理。 對在意資料主權跟降低對美中依賴的歐洲開發者,Mistral 是常見選擇。在消費者硬體自架,Mistral 7B 跟 Mixtral 仍是熱門預設選項。延伸閱讀:Mistral AI、Mixture of Experts、Llama family、open-source。

最後更新: 2026-04-29

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more