腾讯 Hy3 预览版发布,The Information 爆料其背后有 Claude 的"影子"

腾讯 Hy3 预览版发布,The Information 爆料其背后有 Claude 的"影子"

核心结论

4 月 27 日,腾讯混元团队正式发布了 Hy3 Preview 开源模型——一个 295B MoE(仅 21B 激活参数)、支持 256K 上下文窗口、推理效率提升 40% 的国产大模型,定位为 Agent、编程和深度推理场景。

但更值得关注的是 4 月 28 日 The Information 的独家爆料:根据两位知情人士和腾讯内部备忘录,腾讯员工在评估和微调 Hy3 的过程中使用了 Anthropic 的 Claude 进行辅助——尽管 Anthropic 并未向中国等被视为美国对手的国家提供服务。

这是一条值得深度解读的新闻:它既涉及中国模型的最新进展,也触及了中美 AI 技术流动的灰色地带。

Hy3 Preview 技术参数

参数数值
架构MoE(混合专家)
总参数295B
激活参数21B
上下文窗口256K
推理效率较上一代提升 40%
开源
定位Agent、编程、深度推理

MoE 架构意味着虽然模型总参数达到 295B,但每次推理只激活 21B 参数,这使得 Hy3 在推理成本上相比 dense 模型有显著优势。21B 激活参数大致对标 Qwen 3.6 的中等规模版本,但 295B 的总参数意味着模型在某些专项任务上可能有更好的表现。

The Information 爆料的核心信息

根据 The Information 的报道:

  1. 腾讯员工使用 Claude 辅助评估和微调 Hy3:在模型开发过程中,Claude 被用于帮助评估模型输出质量、生成微调数据、分析模型行为
  2. Anthropic 并未向中国提供服务:这意味着腾讯使用的是非官方渠道获取的 Claude 访问权限
  3. 腾讯内部备忘录确认了这一做法:说明这在腾讯内部是已知且有一定规模的实践

这条新闻为什么重要

1. 揭示了模型开发的”交叉训练”模式

腾讯用 Claude 来评估和优化自家模型,本质上是在用业界最强的教师模型来训练学生模型。这与 DeepSeek 用 GPT-4 的数据进行知识蒸馏的逻辑类似,但更进一步——Claude 直接参与了 Hy3 的微调过程。

2. 地缘政治信号

Anthropic 明确表示不向中国提供服务,但腾讯通过非官方渠道使用 Claude。这反映了一个现实:在 AI 模型开发领域,技术边界远比贸易边界模糊。一个中国公司的模型,可能深度受益于美国公司的技术。

3. 评测独立性的质疑

如果 Hy3 的评估过程使用了 Claude,那么 Hy3 与 Claude 之间的比较基准(benchmark)是否存在偏差?这是一个值得关注的问题。

国内模型竞争格局

结合社区对当前国产编程模型的评价:

梯队模型评价
Entry 梯队GLM-5.1 ≈ Kimi K2.6国内编程能力第一梯队
Entry 以下DeepSeek V4 Pro > Qwen 3.6 Max Preview紧追第一梯队
Entry 以下MiMo V2.5 Pro > Qwen 3.6 Plus > Hy3 > Grok-4.20Hy3 预览版尚未进入第一梯队

Hy3 作为预览版,其最终版本的性能表现仍有不确定性。但 MoE 架构的效率优势和腾讯的资源投入,使得 Hy3 在正式发布后有可能冲击 Entry 梯队。

腾讯的另一项开源:Hy-MT1.5 翻译模型

除了 Hy3,腾讯混元团队在 4 月 29 日还开源了 Hy-MT1.5-1.8B 翻译模型:

  • 18 亿参数压缩至 440MB(使用自研 Sherry 稀疏三值量化技术)
  • 可在手机上完全离线运行
  • 支持 33 种语言、1056 个翻译方向
  • 已被 ACL 2026 接收

这项技术展示了腾讯在模型压缩和端侧部署方面的实力。

行动建议

  • 开发者:Hy3 Preview 已开源,可以接入测试,尤其关注其在 Agent 和编程场景的表现
  • 企业用户:如果看重模型的”自主可控”程度,需评估 Claude 参与 Hy3 训练是否构成供应链风险
  • 行业观察者:关注 Hy3 正式版发布后的 benchmark 表现,以及 The Information 爆料是否会引发更广泛的行业讨论

主要来源: