性能比肩Claude4! 阿里開源4800億參數編程大模型Qwen3-Coder 原創
2025年7月23日,阿里巴巴Qwen團隊正式開源了其最新一代旗艦編程模型Qwen3-Coder系列,在編程和智能體任務上展現出驚人的能力,直接對標業界標桿Claude Sonnet 4,甚至在某些場景下實現超越。
與此同時,阿里還推出并開源了一款用于代理式編程的命令行工具:Qwen Code。Qwen Code 基于 Gemini Code 進行二次開發,可以和社區優秀的編程工具結合,如 Claude Code、Cline 等。
技術特征
MoE 創新
Qwen3-Coder采用了先進的混合專家模型架構,總參數高達4800億,但運行時僅激活35億參數,實現了"大容量、高效率"的完美平衡。與傳統的稠密模型不同,MoE架構通過動態路由機制,每個token僅由少數專家處理,大幅提升了計算效率。
技術亮點包括:
- 128個專家網絡,每個token激活8個專家,實現細粒度計算
- 移除共享專家設計,增強專家專業化程度
- 全局批次負載均衡損失,優化專家資源分配
超長上下文支持
Qwen3-Coder原生支持256K token的上下文窗口(約50萬字符),通過YaRN技術更可擴展至1M token——相當于整本《戰爭與和平》的長度 。這一突破性能力使其能夠處理完整的代碼庫、大型PR請求等復雜場景,為"倉庫級編程"提供了可能 。
多語言全面覆蓋
模型精準支持358種編程語言,從主流的Python、Java到小眾的ABAP、Zig等,幾乎覆蓋了所有開發場景需求。
訓練方法
預訓練階段
Qwen3-Coder在7.5萬億token的數據上進行預訓練,其中代碼數據占比高達70%。訓練分為三個階段:
- 通用階段:建立廣泛的語言知識和世界知識
- 推理階段:強化STEM和編碼能力
- 長上下文階段:擴展模型處理長序列的能力
特別值得注意的是,團隊利用Qwen2.5-Coder對低質量數據進行了清洗與重寫,使噪聲數據減少40%,顯著提升了數據質量。
后訓練階段
Qwen團隊認為,所有代碼任務都天然適合執行驅動的大規模強化學習。在后訓練階段,他們實現了兩項關鍵創新:
代碼強化學習(Code RL):
- 自動生成多樣化測試用例
- 擴展真實場景覆蓋,突破競賽級代碼局限
- 使代碼執行成功率提升35%
長視距強化學習(Agent RL):
- 依托阿里云基礎設施構建20,000個并行獨立環境
- 支持多輪交互訓練(規劃→工具調用→環境反饋→決策優化)
- 在SWE-Bench上實現開源模型最佳表現
性能表現
Qwen3-Coder在三類核心任務上刷新了開源模型的紀錄:
- Agentic Coding:智能體編程任務
- Agentic Browser-Use:瀏覽器操作自動化
- Agentic Tool-Use:開發工具鏈集成
在SWE-Bench(評估模型解決真實世界軟件工程問題能力的基準)上,Qwen3-Coder的表現不僅超過了DeepSeek V3和Kimi K2等開源模型,甚至可與商業閉源的Claude Sonnet 4媲美。

獲取與部署指南
模型獲取渠道
- Hugging Face:https://huggingface.co/Qwen
- 魔搭社區:https://modelscope.cn/models/Qwen/Qwen3-Coder-480B-A35B-Instruct
- Qwen Code GitHub:https://github.com/QwenLM/qwen-code
API服務
Qwen3-Coder API已在阿里云百煉平臺上線,采用階梯計費:
- 256K~1M上下文:輸入6美元/百萬token,輸出60美元/百萬token
- 128k~256k:價格與Claude Sonnet 4持平
開發者工具生態
Qwen Code命令行工具
阿里同步開源了基于Gemini Code二次開發的Qwen Code命令行工具,特點包括:
- 支持OpenAI SDK調用
- 優化了prompt和工具調用協議
- 最大化激發Qwen3-Coder的Agentic Coding能力
npm install -g @qwen-code/qwen-code
export OPENAI_API_KEY="your_api_key"
export OPENAI_BASE_URL="https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
export OPENAI_MODEL="qwen3-coder-plus"通過簡單地輸入 ??qwen?? 就可以使用 Qwen-Code
兼容Claude Code
開發者只需簡單配置,就可在Claude Code工具中使用Qwen3-Coder模型
export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/api/v2/apps/claude-code-proxy
export ANTHROPIC_AUTH_TOKEN=your-dashscope-apikey總結
Kimi K2 剛登頂開源模型 SOTA 榜單不到兩周,就被 Qwen 反超了。當前大模型領域競爭還真是激烈,等一波實測數據驗證其性能。若 Qwen 真能達到 Sonnet4 的水平,等后續集成到通義靈碼平臺后(畢竟使用API感覺還是不夠劃算),就可以考慮全面遷移了。
本文轉載自??AI 博物院?? 作者:longyunfeigu

















