👉 项目官网:https://www.python-office.com/ 👈

👉 本开源项目的交流群 👈

atomgit star github star gitee star

4月23日,腾讯混元 Hy3 Preview 正式发布并开源。

这不是一次常规的版本迭代。

官方给它的定义是:**"混元重建后训练的第一个模型",也是"混元迄今最智能的模型"**。


这次发布,背后有个故事

去年年底,腾讯请来了一个人——姚顺雨,担任腾讯首席AI科学家,负责AI基础设施和大语言模型。

他做的第一件事,不是在原有基础上优化,而是推倒重来

预训练框架、强化学习框架、底层基础设施,全部重建。

今年1月底开始训练,4月23日发布。

三个月,从零到一。

Hy3 Preview,就是这三个月交出的第一份答卷。


核心参数,一眼看懂

项目规格
模型名称混元 Hy3 Preview
发布时间2026年4月23日
架构快慢思考融合的混合专家(MoE)
总参数295B(2950亿)
激活参数21B(210亿)
最大上下文256K
开源协议开源
开源平台GitHub、HuggingFace、ModelScope、GitCode

有一个细节值得注意:

总参数295B,但激活参数只有21B,**激活占比约7%**。

这意味着每次推理时,模型只激活全部参数的7%左右,实际计算量远小于一个295B的稠密模型。

这就是MoE架构的核心价值——用更少的激活参数,覆盖更大的知识空间


快思考 + 慢思考,什么意思?

Hy3 Preview 的架构叫"快慢思考融合",对应的是人类认知的两种模式:

快思考(System 1)

  • 快速、自动、不需要太多计算资源
  • 适合:简单问答、事实查询、日常对话
  • 特点:响应速度快

慢思考(System 2)

  • 缓慢、深度、需要更多计算资源
  • 适合:复杂推理、代码生成、多步任务
  • 特点:质量更高

两种模式融合在一个模型里,简单问题快速回,复杂问题深度想


能力提升,哪里最明显?

根据官方数据,Hy3 Preview 在以下方向提升最为显著:

🧠 复杂推理
在 FrontierScience Olympiad、IMO Answer Bench、清华求真书院数学博资考等权威评测中取得优异成绩。

💻 代码与智能体
在 SWE-Bench Verified、Terminal-Bench 2.0、BrowseComp、WideSearch 等基准测试中跻身行业第一梯队

可以稳定支撑复杂多步工作流与工具编排,这对 AI Agent 场景非常重要。

📖 长上下文
256K 上下文,意味着可以一次性处理约 20 万字的文档,不需要分段。

🗣️ 指令遵循与对话体验
通过用户反馈建模与 RLHF 优化,事实性错误减少,意图理解更精准。


价格怎么样?

在腾讯云大模型服务平台 TokenHub 上:

计费项价格
输入(标准)1.2元 / 百万 tokens
输入(命中缓存)0.4元 / 百万 tokens
输出4元 / 百万 tokens

对比同级别的开源模型,性价比相当不错。


已经接入了哪些产品?

Hy3 Preview 发布当天,已接入腾讯数十款产品,包括:

  • 元宝(腾讯AI助手)
  • WorkBuddy(腾讯工作助手)

后续会继续扩展到更多腾讯系产品。


怎么用?

方式一:直接体验

👉 腾讯元宝 — 直接对话,免费体验

方式二:API 调用

👉 腾讯云 TokenHub — 开发者接入,按量计费

方式三:开源部署

模型权重已在以下平台开源,支持 vLLM、SGLang 等推理框架:

  • GitHub
  • HuggingFace
  • ModelScope
  • GitCode

最后说两句

这次混元 Hy3 Preview 的发布,有几点让我印象比较深:

第一,敢于推倒重来。

在大家都在卷参数、卷榜单的时候,腾讯选择了把底层全部重建。这需要勇气,也需要时间。

第二,三个月的速度。

从1月底开始训练,到4月23日发布,三个月完成了从基础设施重建到模型上线的全流程。这个速度,说明团队执行力很强。

第三,开源策略。

选择开源,说明腾讯希望通过社区反馈来打磨正式版。这是一个务实的选择——先把模型放出去,听真实用户的声音,再迭代。

Hy3 Preview 是"重建后的第一步",正式版还在路上。

值得持续关注。


有问题?👉 加我微信:aiwf365,备注:混元

或者👉 加入AI编程学习交流群


相关阅读

---

🎓 AI 编程实战课程

想系统学习 AI 编程?程序员晚枫的 AI 编程实战课 帮你从零上手!