腾讯自研大模型混元 2.0 发布

腾讯自主研发的大模型混元2.0(tencent hy2.0)正式发布,与此同时,deepseek v3.2也正加速融入腾讯生态体系。当前,这两大前沿模型已率先在元宝、ima等腾讯原生ai应用中完成部署并上线,腾讯云亦同步开放了对应模型的api接口及一站式平台服务。

腾讯自研大模型混元 2.0 发布

此次推出的Tencent HY2.0采用先进的混合专家(MoE)架构,整体参数规模达406B,其中激活参数为32B,并全面支持长达256K的上下文窗口。

相较于前代模型(Hunyuan-T1-20250822),HY2.0Think在预训练语料质量、强化学习策略设计等方面均实现关键突破。在数学推理、科学理解、编程生成、指令精准执行等高难度复杂任务场景中,其综合性能稳居国内领先行列,泛化能力亦获得显著跃升。

在数学与科学知识推理方向,HY2.0Think依托高质量数据集开展Large Rollout强化学习训练,大幅提升了逻辑推演与问题求解能力。在国际权威评测如IMO-AnswerBench(国际数学奥林匹克竞赛基准)、HMMT2025(哈佛-麻省理工数学竞赛2025)中,该模型表现优异,达到业界一流水准。叠加预训练阶段的数据升级,其在极具挑战性的Humanity's Last Exam(HLE)知识测评以及ARC AGI等泛化能力评估任务中,同样取得突破性进展。

腾讯自研大模型混元 2.0 发布

在指令理解与长文本多轮交互能力方面,HY2.0Think引入重要性采样校准机制,有效缓解了训练与推理阶段的行为偏差问题,实现了超长上下文窗口下强化学习的高效且稳定收敛。此外,通过构建多样化、可验证的任务沙盒环境,并融合基于细粒度评分标准的强化学习范式,该模型在Multi Challenge等典型指令遵循与多轮对话任务中展现出更强的鲁棒性与适应性。

在代码生成与智能体(Agentic)能力维度,腾讯打造了规模化、高保真的可验证执行环境,并辅以高质量合成数据支撑,显著强化了模型在自主编程(Agentic Coding)及复杂工具链调用等真实落地场景中的表现。在SWE-bench Verified、Tau2-Bench等聚焦实际工程效能的智能体评测中,HY2.0Think实现了跨越式提升。

源码地址:点击下载

网友留言(0 条)

发表评论