C
ChaoBro

Demis Hassabis YC 演讲:AGI 将在 2030 年前后到来,但预训练 + RLHF 远远不够

Demis Hassabis YC 演讲:AGI 将在 2030 年前后到来,但预训练 + RLHF 远远不够

核心判断

DeepMind 创始人兼 CEO Demis Hassabis 在 Y Combinator 的一次演讲中,对 AGI 时间线给出了迄今为止最具体的公开预测:2030 年前后

但他同时给出了一个更关键的判断:当前大模型行业依赖的”大规模预训练 + RLHF”范式,远远不够达到 AGI。必须补上两项核心能力——持续学习和长程推理。

这不是一篇普通的”AI 大佬预测”。Hassabis 是 AlphaGo、AlphaFold 的创造者,DeepMind 的联合创始人。他对 AGI 的判断来自构建世界上最先进 AI 系统的实际经验。

三大关键论点

1. 预训练 + RLHF 只是起点

当前所有前沿模型(GPT-5.5、Claude Opus 4.7、Gemini 3.1 Pro)都基于同一个范式:

大规模预训练 → 指令微调 → RLHF 对齐 → 产品

Hassabis 的判断很明确:这个范式有天花板。预训练是”一次性”的——模型在训练完成后,知识就冻结了。RLHF 只能在训练数据的分布内做优化,无法让模型获得训练时没有见过的能力。

类比:这就像给学生一本教科书,让他背诵所有知识点,然后通过考试技巧(RLHF)让他表现得更好。但真正的智能不是”背出来的”。

2. 持续学习(Continual Learning)是必经之路

持续学习的核心:模型在部署后仍然能够学习新知识和新技能,而不需要从头重新训练。

能力当前模型AGI 需要
知识更新需要重新训练或 RAG实时学习新信息
技能获取需要微调或 prompt engineering自主掌握新任务
错误修正需要人类标注数据重新训练从交互中自我改进
经验积累每次对话都是”新的”跨会话积累经验和洞察

Hassabis 暗示 DeepMind 已经在持续学习方向上投入了大量资源。AlphaFold 的成功本质上是一个”持续学习”的案例——从蛋白质结构数据中不断学习,持续改进预测精度。

3. 长程推理(Long-horizon Reasoning)是瓶颈

当前模型擅长”短程推理”——回答一个问题、生成一段代码、总结一篇文章。但在需要多步推理、跨领域知识整合、长期规划的任务上,表现大幅下降。

Hassabis 举了一个例子:让 AI 系统规划一个从 0 到 1 的科学研究项目——提出假设、设计实验、分析结果、迭代假设。这需要:

  • 跨步依赖:每一步的决策都依赖于前几步的结果
  • 不确定性管理:实验可能失败,假设可能被证伪
  • 资源分配:在有限的时间和计算资源下做出最优决策
  • 自我纠错:发现错误后调整方向,而不是继续走错误的路

这些能力正是当前模型最缺乏的。

与其他 AGI 预测的对比

人物/机构AGI 预测时间核心路径
Demis Hassabis (DeepMind)2030 年前后持续学习 + 长程推理
Dario Amodei (Anthropic)2026-2027 年Scaling + 对齐
Sam Altman (OpenAI)未给出具体时间Scaling + Agent
Yann LeCun (Meta)至少 10 年以上全新架构(非 LLM)

Hassabis 的 2030 年预测介于 Amodei 的乐观和 LeCun 的悲观之间,但他给出了更具体的”缺失能力”清单——不是简单地说”需要更多数据/算力”,而是明确指出了需要什么样的能力突破。

对行业的意义

对模型厂商

Scaling Law(加大模型规模)的红利正在边际递减。下一个突破口不在”更大”,而在”更会学习”。

DeepMind 已经在 Gemini 系列中尝试了一些持续学习的实验。如果 Hassabis 的判断正确,那么下一个”代差级”的模型突破,将来自持续学习能力的突破,而不是参数量的增长。

对开发者

如果你正在构建 AI 应用,需要考虑一个趋势:未来的模型会更擅长”从使用中学习”。这意味着:

  • 你的应用积累的交互数据,将成为训练下一代模型的宝贵资源
  • 能够持续学习和自我改进的 Agent 将成为主流
  • “一次性部署”的 AI 应用会被”持续进化”的 AI 应用淘汰

对投资者

Hassabis 的演讲暗示了一个投资方向:持续学习基础设施。包括:

  • 在线学习(Online Learning)平台
  • 模型持续微调工具
  • 长程推理基准和评测体系

一句话总结

AGI 不是”更大的模型”——它是”更会学习的系统”。Hassabis 的 2030 年预测和持续学习论断,为 AI 行业指出了一个比 Scaling Law 更值得关注的方向。