跳到內容
Mixtral 8x7B logo

MODELS · 模型目錄

Mixtral 8x7B

Mistral 經典開源 MoE,總 47B 但每 token 只啟動 13B

mistralmistralopen source

規格

Context window
32,768
Max output
4,096
模態
text
Tool use
視覺
Streaming
License
apache-2.0
釋出
2023-12-11

價格

Mixtral 8x7B(2023 年 12 月)是 Mistral 第一個 Apache 2.0 開源的 MoE 模型——8 個 7B expert,總共 47B 但每個 token 只啟動 13B,推論速度像 7B 級但品質接近 30B+。32K 上下文。證明稀疏 MoE 可以乾淨開源的關鍵作品。後繼:Mixtral 8x22B、Mistral Large 系列。

編輯試用心得

架構意義重要,後來每個開源 MoE(DeepSeek V3、Qwen MoE)都繼承 Mixtral 推廣的 pattern。新專案上線,Llama 3.3 70B 或 Qwen 2.5 72B 同等運算成本品質更高,中文 DeepSeek V3 直接輾壓。Apache 2.0 純度重要時(法務嚴格)留著,否則新模型通常更好。

評論

還沒有人留評論。當第一個。

最後更新: 2026-04-29

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more