国际MoEApache 2.0
Mixtral-8x7B
Mixtral 8x7B MoE 模型,8 个专家每次激活 2 个,性价比极高
Mistral AI·46.7B 参数·MoE·发布于 2023-12
你的硬件评估
正在检测硬件...
❓ 未知
参数量
46.7B
激活 12.9B
上下文长度
32K tokens
架构
MoE
46.7B 总参数
最低显存
28.5 GB
Q4_K_M 量化
量化选项
3 种
适用场景
对话代码推理
量化版本对比
| 格式 | 位宽 | 所需显存 | 质量 | 预估速度 | 状态 |
|---|---|---|---|---|---|
| Q4_K_M | 4-bit | 28.5 GB | 良好 | — | ❓ 未知 |
| Q6_K | 6-bit | 36.7 GB | 优秀 | — | ❓ 未知 |
| Q8_0 | 8-bit | 48 GB | 优秀 | — | ❓ 未知 |
显存需求一览
Q4_K_M
28.5 GB
Q6_K
36.7 GB
Q8_0
48 GB
资源链接
💡 关于 MoE 架构
Mixtral-8x7B 采用 Mixture of Experts (MoE) 架构,总参数量为 46.7B, 但每次推理仅激活 12.9B 参数。虽然推理计算量较小, 但完整模型权重仍需全部加载到显存中,因此显存需求按总参数量计算。 实际推理速度会比同等显存占用的 Dense 模型更快。
推荐硬件配置
Q4_K_M→建议 ≥ 33 GB 显存(模型 28.5 GB + 15% 余量)
Q6_K→建议 ≥ 43 GB 显存(模型 36.7 GB + 15% 余量)
Q8_0→建议 ≥ 56 GB 显存(模型 48 GB + 15% 余量)