开源大语言模型(LLM)领域正以惊人的速度演进。继 Qwen3.6-Plus 和基于混合专家模型(MoE)的 Qwen3.6-35B-A3B 成功发布后,Qwen 团队再次推出了 Qwen3.6-27B。这款全新的 270 亿参数稠密模型旨在提供旗舰级的性能,特别是在智能体编程(Agentic Coding)方面,同时保持了广泛部署的实用性。
与复杂的 MoE 架构不同,Qwen3.6-27B 采用了简单直接的稠密架构。尽管其总参数量少于上一代开源旗舰模型,但在效率和能力上实现了重大突破。
智能体编程的重大突破
Qwen3.6-27B 最显著的特点是其 智能体编程 能力。在最新的基准测试中,它不仅能与更大的模型竞争,甚至在多个维度上实现了超越。例如,在 SWE-bench Verified 基准测试中,Qwen3.6-27B 获得了 77.2 的高分,超过了上一代开源旗舰模型 Qwen3.5-397B-A17B(其总参数量高达 3970 亿)。

这种高效率在其他主要的编程和推理基准测试中也得到了验证:
| 基准测试 | Qwen3.6-27B | Qwen3.5-397B-A17B | Gemma4-31B |
|---|---|---|---|
| SWE-bench Verified | 77.2 | 76.2 | 52.0 |
| SWE-bench Pro | 53.5 | 50.9 | 35.7 |
| Terminal-Bench 2.0 | 59.3 | 52.5 | 42.9 |
| GPQA Diamond | 87.8 | 88.4 | 84.3 |
| LiveCodeBench v6 | 83.9 | 83.6 | 80.0 |
该模型能够通过内部智能体脚手架(结合 bash 和文件编辑工具)处理复杂的、多轮的编程任务,这使其成为构建自主编程助手的理想选择。
原生多模态与“思考”模式
Qwen3.6-27B 是原生多模态模型,在单一统一检查点中同时支持 视觉语言思考 和 非思考 模式。这使得模型能够同时处理图像、视频和文本,从而实现复杂的多模态推理、文档理解和视觉问答。
无论是在 RefSpatialBench 上解决空间谜题,还是通过 CharXiv RQ 理解复杂文档,Qwen3.6-27B 都展现出了足以与 Claude 4.5 Opus 等超大规模模型相媲美的竞争力。
为什么 27B 稠密模型至关重要?
对于许多开发者和企业来说,选择模型规模是性能与资源需求之间的平衡。27B 稠密架构是一个“黄金分割点”:
- 部署简单:没有 MoE 的路由复杂性,意味着它可以轻松集成到标准的推理引擎中。
- 高效能:它以极低的计算成本提供了相当于 400B+ 参数模型的推理能力。
- 上下文感知:支持高达 256K 的上下文窗口,能够消化整个代码库或长篇文档。
使用 Qwen3.6-27B 进行构建
Qwen3.6-27B 已在 Hugging Face 和 ModelScope 上以 开源权重 形式发布。同时,它也已接入阿里云百炼(Model Studio)API,支持 OpenAI 兼容规范。
开发者可以使用 OpenClaw、Claude Code 或原生的 Qwen Code 等流行的编程助手将 Qwen3.6-27B 集成到工作流中。如果您想探索更多 AI 工具和模型,BuildWay 的精选目录 提供了 AI 领域最新创新的全面列表。
总结
Qwen3.6-27B 代表了模型参数从“量”到“质”的转变。通过专注于稠密架构的优化和智能体能力的提升,Qwen 团队为社区提供了一个强大、多功能且高度可部署的工具。这证明了开源 AI 的巨大潜力,已经能够与最先进的商业模型并驾齐驱,甚至在某些领域实现超越。
参考资料
- Qwen 团队. "Qwen3.6-27B:270亿参数稠密模型,旗舰级编程能力." Qwen 官方博客, 2026年4月22日.
- 阿里云. "百炼平台 API 文档."
- Hugging Face. "Qwen/Qwen3.6-27B 模型卡片."



