規格
- Context window
- 32,768
- Max output
- 4,096
- 模態
- text
- Tool use
- —
- 視覺
- —
- Streaming
- ✓
- License
- apache-2.0
- 釋出
- 2023-12-11
價格
Mixtral 8x7B(2023 年 12 月)是 Mistral 第一個 Apache 2.0 開源的 MoE 模型——8 個 7B expert,總共 47B 但每個 token 只啟動 13B,推論速度像 7B 級但品質接近 30B+。32K 上下文。證明稀疏 MoE 可以乾淨開源的關鍵作品。後繼:Mixtral 8x22B、Mistral Large 系列。
編輯試用心得
架構意義重要,後來每個開源 MoE(DeepSeek V3、Qwen MoE)都繼承 Mixtral 推廣的 pattern。新專案上線,Llama 3.3 70B 或 Qwen 2.5 72B 同等運算成本品質更高,中文 DeepSeek V3 直接輾壓。Apache 2.0 純度重要時(法務嚴格)留著,否則新模型通常更好。
評論
還沒有人留評論。當第一個。
最後更新: 2026-04-29