同花顺 Logo
AIME助手
问财助手
通义千问 Qwen3.6-27B 宣布开源:270 亿参数稠密模型,编程能力超越 15 倍参数量 MoE 模型
2026-04-22 21:27:47
来源:IT之家
分享
文章提及标的
阿里巴巴--

IT之家 4 月 22 日消息,阿里(BABA)云通义千问团队今日宣布,开源模型家族迎来新成员 ——Qwen3.6-27B。这是一款拥有 270 亿参数的稠密多模态模型,也是社区呼声最高的模型规格。

此前,通义千问已陆续发布了 Qwen3.6-Plus 和 Qwen3.6-35B-A3B,而此次开源的 27B 版本在保持稠密架构优势的同时,全面提升了智能体编程与多模态推理能力。

据官方介绍,Qwen3.6-27B 支持多模态思考与非思考模式,在智能体编程方面达到了旗舰级表现,全面超越了前代开源旗舰 Qwen3.5-397B-A17B—— 后者是一款总参数 397 亿、激活参数 17 亿的 MoE(混合专家)模型。作为稠密架构,Qwen3.6-27B 无需 MoE 路由即可部署,是开发者在实用、可广泛部署规模上获取顶尖编程能力的理想选择。

在自然语言与编程基准测试中,Qwen3.6-27B 仅凭 270 亿参数,就在所有主要编程基准上全面超越了参数量高达其 15 倍的 Qwen3.5-397B-A17B。

具体来看,SWE-bench Verified 得分 77.2(前代 76.2),SWE-bench Pro 得分 53.5(前代 50.9),Terminal-Bench 2.0 得分 59.3(前代 52.5),SkillsBench 得分 48.2(前代 30.0)。

在推理任务上,Qwen3.6-27B 在 GPQA Diamond 上取得了 87.8 的成绩,可与数倍于其规模的模型相媲美。

视觉语言方面,该模型原生支持多模态,能够处理图像、视频与文本的混合输入,支持视觉推理、文档理解和视觉问答等任务,其能力与 Qwen3.6-35B-A3B 保持一致。

IT之家提醒,Qwen3.6-27B 的开源权重已在 Hugging Face 和 ModelScope 平台上提供,开发者可下载进行本地部署。同时,用户也可以在 Qwen Studio(chat.qwen.ai)上直接进行交互对话。

另外,阿里(BABA)云百炼平台即将支持通过 API 调用该模型,并保留“preserve_thinking”功能,可在消息中保留所有前序轮次的思维内容,官方推荐用于智能体任务。

该模型还可以无缝集成到流行的第三方编程助手中,包括 OpenClaw、Claude Code 和 Qwen Code,从而简化开发流程,实现高效且具备上下文感知能力的编码体验。

免责声明:风险提示:本文内容仅供参考,不代表同花顺观点。同花顺各类信息服务基于人工智能算法,如有出入请以证监会指定上市公司信息披露平台为准。如有投资者据此操作,风险自担,同花顺对此不承担任何责任。
homeBack返回首页
不良信息举报与个人信息保护咨询专线:10100571违法和不良信息涉企侵权举报涉算法推荐举报专区涉青少年不良信息举报专区

浙江同花顺互联信息技术有限公司版权所有

网站备案号:浙ICP备18032105号-4
证券投资咨询服务提供:浙江同花顺云软件有限公司 (中国证监会核发证书编号:ZX0050)
AIME
举报举报
反馈反馈