- 模型规格:稀疏专家混合(MoE)模型,总参数 35B,活跃参数仅 3B,采用 A3B 架构,实现高性能与高效推理。
- 核心能力:显著增强代理编码(Agentic Coding)和多模态感知/推理,支持思考模式(preserve_thinking)和非思考模式,兼容多种编码助手。
- 性能亮点:SWE-bench Verified:73.4(超越前代 Qwen3.5-35B-A3B 的 70.0)
- Terminal-Bench 2.0:51.5(大幅优于前代 40.5)
- 多模态任务(如 RefCOCO):达 92.0,可与 Claude Sonnet 4.5 等大模型竞争
- 其他特性:支持 256K 上下文窗口,高效计算,适用于复杂编码代理和多模态任务。
- 开源与可用性:完全开源,权重已在 Hugging Face 和 ModelScope 提供,可通过 Qwen Studio、Alibaba Cloud API 使用,支持社区自托管。
→ https://qwen.ai/blog?id=qwen3.6-35b-a3b