Qwen3.6-27B以27B參數超越397B前代旗艦,實現旗艦級Agentic編碼
AI 語音朗讀 · Edge TTS
Qwen3.6-27B以27B參數超越397B前代旗艦,實現旗艦級Agentic編碼。
Qwen3.6-27B是阿里巴巴「Qwen」團隊於2026年4月22日發布的最新開源密集模型,僅27B參數即在所有主要編碼基準上擊敗前代開源旗艦Qwen3.5-397B-A17B(總397B參數、17B活躍,規模約15倍),並支援多模態思考與非思考模式,Apache 2.0授權完全開放。此模型回應社群需求,提供易部署的旗艦級Agentic編碼能力,強調穩定性與實際生產力。
旗艦級Agentic編碼表現
Qwen3.6-27B在Agentic編碼領域實現密集模型突破,僅27B參數即全面超越Qwen3.5-397B-A17B,並大幅領先同規模密集模型。
- SWE-bench Verified:77.2(對比76.2)
- SWE-bench Pro:53.5(對比50.9)
- Terminal-Bench 2.0:59.3(對比52.5)
- SkillsBench:48.2(對比30.0)
模型特別強化前端工作流程與程式庫級推理流暢度與精準度,證明良好訓練的密集模型能在開發者最重視任務上超越體積龐大前代。
多模態視覺語言能力
Qwen3.6-27B原生多模態,單一統一檢查點支援視覺語言思考與非思考模式,與Qwen3.6-35B-A3B相同。
- 處理圖像、影片與文字,實現多模態推理、文件理解與視覺問答。
- 預設思考模式下自動推理,透過API參數可切換直接回應。
在推理任務如GPQA Diamond達87.8分,與數倍規模模型競爭。
思考保留與Agent功能
引入「preserve_thinking」功能,保留對話歷史中所有先前思考內容,推薦用於Agentic任務,減少迭代開發負擔並優化上下文利用。
- 預設僅保留最新使用者訊息的思考區塊,啟用後可跨回合保留思考軌跡。
- 優秀工具呼叫能力,適合建構Agent應用。
模型採用密集架構,無需MoE路由,並支援與第三方編碼助手整合。
部署與整合便利性
作為密集架構,Qwen3.6-27B無MoE路由複雜性,易於部署與服務,適合廣泛規模應用。
- 即時體驗:Qwen Studio(https://chat.qwen.ai/?models=qwen3.6-27b)提供Web UI、桌面與行動裝置端應用。
- API支援:Alibaba Cloud Model Studio相容OpenAI與Anthropic規格,支援chat completions。
- 開源權重:Hugging Face(https://huggingface.co/Qwen/Qwen3.6-27B、FP8版)、ModelScope(https://modelscope.cn/models/Qwen/Qwen3.6-27B)、GitHub(https://github.com/QwenLM/Qwen3.6)。
- 推論框架:官方建議透過Hugging Face Transformers框架進行部署,例如使用
transformers serve指令啟動服務。
與第三方工具無縫整合
Qwen3.6-27B專為開發工作流設計,可整合熱門編碼助手。
- 「OpenClaw」、「Claude Code」、「Qwen Code」:終端AI Agent,優化理解大型程式庫、自動化繁瑣工作、加速交付(https://github.com/QwenLM/qwen-code)。
- 「Qwen-Agent」:開源Agent框架,基於指令遵循、工具使用、規劃與記憶建構強大LLM應用(https://github.com/QwenLM/Qwen-Agent)。
模型可應用於多種開發場景,開發者可透過官方文件進一步了解微調與整合方式。
Qwen3.6系列脈絡與社群回饋
Qwen3.6建基Qwen3.5基礎,優先穩定性與實用性,直接融入社群回饋,提供更直覺、回應迅速且真正生產力的編碼體驗。
- 2026-04-22:Qwen3.6-27B發布。
- 2026-04-16:Qwen3.6-35B-A3B(3B活躍MoE)。
- Qwen3.5系列:2026-02-16首發397B-A17B,後續122B-A10B、35B-A3B、27B、9B、4B、2B、0.8B。
系列涵蓋從3B活躍至API級Qwen3.6-Plus/Max-Preview,Agentic編碼在各規模實現突破。Qwen團隊感謝社群回饋,期待開發者創作。
開源授權與引用
全Apache 2.0授權,Hugging Face與ModelScope儲存庫含授權文件。引用格式:
@misc{qwen36_27b,
title = {{Qwen3.6-27B}: Flagship-Level Coding in a 27B Dense Model},
url = {https://qwen.ai/blog?id=qwen3.6-27b},
author = {{Qwen Team}},
month = {April},
year = {2026}
}
詳細基準圖表見GitHub(https://github.com/QwenLM/Qwen3.6),社群討論於Issues與Discussions,聯繫Discord或WeChat群組。Qwen3.6-27B證明27B規模即可主宰開發者關鍵任務,強化Qwen開源家族全面性。
🚀 Meet Qwen3.6-27B, our latest dense, open-source model, packing flagship-level coding power!
— Qwen (@Alibaba_Qwen) April 22, 2026
Yes, 27B, and Qwen3.6-27B punches way above its weight. 👇
What's new:
🧠 Outstanding agentic coding — surpasses Qwen3.5-397B-A17B across all major coding benchmarks
💡 Strong… pic.twitter.com/S36dggCCwk
LM Performance:With only 27B parameters, Qwen3.6-27B outperforms the Qwen3.5-397B-A17B (397B total / 17B active, ~15x larger!) on every major coding benchmark — including SWE-bench Verified (77.2 vs. 76.2), SWE-bench Pro (53.5 vs. 50.9), Terminal-Bench 2.0 (59.3 vs. 52.5), and… pic.twitter.com/kPJKh8ablz
— Qwen (@Alibaba_Qwen) April 22, 2026
VLM Performance:Qwen3.6-27B is natively multimodal, supporting both vision-language thinking and non-thinking modes in a single unified checkpoint — the same as Qwen3.6-35B-A3B. It handles images and video alongside text, enabling multimodal reasoning, document understanding,… pic.twitter.com/zLVymERmuZ
— Qwen (@Alibaba_Qwen) April 22, 2026
