腾讯开源轻量级混元-A13B模型 1张中低端GPU卡即可部署

腾讯开源轻量级混元-A13B模型 1张中低端GPU卡即可部署

4.8
0热度

腾讯正式发布并开源混元大模型家族的新成员——混元-A13B模型。该模型采用基于专家混合(MoE)架构,总参数规模达800亿,激活参数为130亿,在保持顶尖开源模型效果的同时,大幅降低了推理延迟与计算开销,为个人开发者和中小企业提供了更具性价比的AI解决方案。据腾讯方面介绍,混元-A13B模型在极端条件下仅需1张中低端GPU卡即可部署,用户可通过Github、HuggingFace等技术社区下载使用

腾讯正式发布并开源混元大模型家族的新成员——混元-A13B模型。该模型采用基于专家混合(MoE)架构,总参数规模达800亿,激活参数为130亿,在保持顶尖开源模型效果的同时,大幅降低了推理延迟与计算开销,为个人开发者和中小企业提供了更具性价比的AI解决方案。

据腾讯方面介绍,混元-A13B模型在极端条件下仅需1张中低端GPU卡即可部署,用户可通过Github、HuggingFace等技术社区下载使用,模型API也已在腾讯云官网上线。这一特性使得更多开发者能够以较低成本接入前沿AI技术,推动创新应用落地。

微信截图_20250627155201.png

在性能表现上,混元-A13B模型在数学、科学和逻辑推理任务中展现出领先效果。例如,在数学推理测试中,模型能够准确完成小数比较并展现分步解析能力。此外,该模型还支持调用工具生成复杂指令响应,如出行攻略、数据文件分析等,为智能体(Agent)应用开发提供了有力支持。

技术层面,混元-A13B模型通过预训练中使用20万亿高质量网络词元语料库,提升了模型推理能力的上限,并完善了MoE架构的Scaling Law理论体系,为模型设计提供了可量化的工程化指导。同时,模型支持用户按需选择思考模式,快思考模式提供简洁高效输出,慢思考模式则涉及更深推理步骤,兼顾了效率与准确性。

为进一步推动AI开源生态发展,腾讯还开源了两个新数据集。其中,ArtifactsBench主要用于代码评估,构建了包含1825个任务的新基准;C3-Bench则针对Agent场景模型评估,设计了1024条测试数据,以发现模型能力的不足。

此次混元-A13B模型的开源,是腾讯在AI领域持续投入的又一成果。未来,腾讯混元大模型家族还将推出更多尺寸、更多特色的模型,与社区共享实践技术,共同促进开源生态的繁荣。

体验入口:https://hunyuan.tencent.com/

开源地址:https://github.com/Tencent-Hunyuan

首页 发现
看过 我的