最近,国内云服务器商腾讯云宣布开源最新混元大模型Hunyuan-A13B。该模型总参数为80B,但激活参数仅为13B,以小参数实现了比肩同等架构领先开源模型的成绩,具有推理速度更快,性价比更高的优势。
目前该模型已经在Github和Huggingface等开源社区上线,同时模型API也在腾讯云官网正式上线,支持快速接入部署。
腾讯云官网:点击进入
据悉,Hunyuan-A13B是腾讯内部应用和调用量最大的大语言模型之一,有超过400个业务用于精调或者直接调用,日均请求超1.3亿。同时,这也是业界首个13B级别的MoE开源混合推理模型,可以帮助开发者以用更低门槛的方式获得更好的模型能力。
Hunyuan-A13B支持快、慢两种思考模式:快速思维模式,提供简洁高效的输出,适用于高效、简单的日常任务;慢速思维模式,支持更深层次的推理步骤包含反思和回溯,生成更长的思维链,提升复杂任务的准确性。
此外,Hunyuan-A13B特意针对AI Agent进行了强化,打造了应对不同场景变化的“自适应大脑”,设计超过30种智能体指令,并组合工具、动作、响应的格式变化,创造出20000种格式组合。
在多个业内权威数据测试集上,Hunyuan-A13B与OpenAI的o1-1217、DeepSeek的R1-0120、Qwen3-A22B等模型的对比中表现出了不相上下的成绩。
对于时下热门的大模型Agent能力,腾讯混元建设了一套多Agent数据合成框架,接入了MCP、沙箱、大语言模型模拟等多样的环境,并且通过强化学习让Agent在多种环境里进行自主探索与学习,进一步提升了Hunyuan-A13B的效果。
在长文方面,Hunyuan-A13B支持256K原生上下文窗口,在多个长文数据集中取得了优异的成绩。
在实际使用场景中,Hunyuan-A13B模型可以根据需要选择思考模式,快思考模式提供简洁、高效的输出,适合追求速度和最小计算开销的简单任务;慢思考涉及更深、更全面的推理步骤,如反思和回溯。这种融合推理模式优化了计算资源分配,使用户能够通过加think/no_think切换思考模式,在效率和特定任务准确性之间取得平衡。
随着AI的竞争日渐激烈,腾讯云在大模型领域的战略和部署正在持续进化。本次Hunyuan-A13B的更新升级与对外开源,是腾讯对其混元大模型研发体系进行全面重构之后的一大动作。