国产MoEApache 2.0

Qwen3-Coder-Next-80B-A3B

Qwen3-Coder-Next,80B MoE 仅激活 3B 参数,512 专家池,极致效率的代码模型

Alibaba·80B 参数·MoE·发布于 2026-02

你的硬件评估

正在检测硬件...
未知
参数量

80B

激活 3B

上下文长度

256K tokens

架构

MoE

80B 总参数

最低显存

30 GB

Q4_K_M 量化

量化选项

3 种

适用场景

代码Agent

量化版本对比

格式位宽所需显存质量预估速度状态
Q4_K_M4-bit30 GB
良好
未知
Q6_K6-bit42 GB
优秀
未知
Q8_08-bit55 GB
优秀
未知

显存需求一览

Q4_K_M
30 GB
Q6_K
42 GB
Q8_0
55 GB

资源链接

💡 关于 MoE 架构

Qwen3-Coder-Next-80B-A3B 采用 Mixture of Experts (MoE) 架构,总参数量为 80B, 但每次推理仅激活 3B 参数。虽然推理计算量较小, 但完整模型权重仍需全部加载到显存中,因此显存需求按总参数量计算。 实际推理速度会比同等显存占用的 Dense 模型更快。

推荐硬件配置

Q4_K_M建议 ≥ 35 GB 显存(模型 30 GB + 15% 余量)
Q6_K建议 ≥ 49 GB 显存(模型 42 GB + 15% 余量)
Q8_0建议 ≥ 64 GB 显存(模型 55 GB + 15% 余量)