Midjourney操作界面

阿里发布开源Qwen3,成本大幅降低仅需DeepSeek-R1的三分之一

阿里巴巴正式推出新一代通义千问模型 Qwen3(千问3),并宣布其开源。阿里云表示,千问3是国内首个 “混合推理模型”,同时集成了 “快思考” 与 “慢思考” 的能力。相比于 DeepSeek-R1,千问3的参数量仅为其三分之一,而部署成本大幅降低,使用仅需四张 H20显卡即可实现满血版的部署。根据官方技术博客,千问3采用了混合专家(MoE)架构,拥有2350亿个参数,实际激活时仅需220亿参数。

阿里巴巴正式推出新一代通义千问模型 Qwen3(千问3),并宣布其开源。阿里云表示,千问3是国内首个 “混合推理模型”,同时集成了 “快思考” 与 “慢思考” 的能力。相比于 DeepSeek-R1,千问3的参数量仅为其三分之一,而部署成本大幅降低,使用仅需四张 H20显卡即可实现满血版的部署。

QQ_1745888061408.png

根据官方技术博客,千问3采用了混合专家(MoE)架构,拥有2350亿个参数,实际激活时仅需220亿参数。这款模型在预训练阶段使用了36TB 的数据,并通过多轮强化学习进行后训练。同时,千问3能够无缝结合非思考模式与思考模型。对于简单问题,它可以迅速 “快思考”,而对于复杂问题,则可进行多步骤的 “深度思考”,从而提高模型的效率和稳定性。

阿里云进一步表示,千问3的显存占用只有 DeepSeek-R1的三分之一,性能却大幅提升。目前,千问3已经开源了两款 MoE 模型(30B 和235B),以及六款密集模型(包括0.6B、1.7B、4B、8B、14B、32B)。其中,30B 参数的 MoE 模型性能提升超过10倍,激活仅需3B 的参数便可实现上代 Qwen2.5-32B 模型的性能表现。所有千问3模型均为混合推理模型,用户可以根据需求设置 “思考预算”,灵活调整性能和成本,以适应不同的应用场景。

开源后,用户可以在魔搭社区、HuggingFace 等平台上下载千问3模型并进行商业使用,也可以通过阿里云的 API 服务来调用千问3。个人用户还可通过通义 APP 体验千问3的功能,而夸克也即将全面接入该模型。

展望未来,阿里云计划通过优化模型架构和训练方法,进一步提升千问3的性能,旨在扩大数据规模、增加模型大小、延长上下文长度、拓宽模态范围,并利用环境反馈来推动强化学习,实现长周期推理。通义千问团队在技术博客中表示,Qwen3代表了通往通用人工智能(AGI)和超级人工智能(ASI)旅程中的一个重要里程碑,标志着行业从专注于训练模型的时代向以训练 Agent 为中心的新时代转型。

划重点:  

🌟 阿里巴巴推出千问3模型,参数量仅为 DeepSeek-R1的三分之一,显著降低部署成本。  

🚀 千问3采用混合专家架构,性能提升超过10倍,支持灵活的 “思考预算” 设置。  

📈 开源后用户可在多个平台下载和使用千问3,未来将不断优化以扩展其功能。  

点赞(0)

评论列表 共有 0 条评论

暂无评论
发表
评论
顶部