核心判断
DeepMind 创始人兼 CEO Demis Hassabis 在 Y Combinator 的一次演讲中,对 AGI 时间线给出了迄今为止最具体的公开预测:2030 年前后。
但他同时给出了一个更关键的判断:当前大模型行业依赖的”大规模预训练 + RLHF”范式,远远不够达到 AGI。必须补上两项核心能力——持续学习和长程推理。
这不是一篇普通的”AI 大佬预测”。Hassabis 是 AlphaGo、AlphaFold 的创造者,DeepMind 的联合创始人。他对 AGI 的判断来自构建世界上最先进 AI 系统的实际经验。
三大关键论点
1. 预训练 + RLHF 只是起点
当前所有前沿模型(GPT-5.5、Claude Opus 4.7、Gemini 3.1 Pro)都基于同一个范式:
大规模预训练 → 指令微调 → RLHF 对齐 → 产品
Hassabis 的判断很明确:这个范式有天花板。预训练是”一次性”的——模型在训练完成后,知识就冻结了。RLHF 只能在训练数据的分布内做优化,无法让模型获得训练时没有见过的能力。
类比:这就像给学生一本教科书,让他背诵所有知识点,然后通过考试技巧(RLHF)让他表现得更好。但真正的智能不是”背出来的”。
2. 持续学习(Continual Learning)是必经之路
持续学习的核心:模型在部署后仍然能够学习新知识和新技能,而不需要从头重新训练。
| 能力 | 当前模型 | AGI 需要 |
|---|---|---|
| 知识更新 | 需要重新训练或 RAG | 实时学习新信息 |
| 技能获取 | 需要微调或 prompt engineering | 自主掌握新任务 |
| 错误修正 | 需要人类标注数据重新训练 | 从交互中自我改进 |
| 经验积累 | 每次对话都是”新的” | 跨会话积累经验和洞察 |
Hassabis 暗示 DeepMind 已经在持续学习方向上投入了大量资源。AlphaFold 的成功本质上是一个”持续学习”的案例——从蛋白质结构数据中不断学习,持续改进预测精度。
3. 长程推理(Long-horizon Reasoning)是瓶颈
当前模型擅长”短程推理”——回答一个问题、生成一段代码、总结一篇文章。但在需要多步推理、跨领域知识整合、长期规划的任务上,表现大幅下降。
Hassabis 举了一个例子:让 AI 系统规划一个从 0 到 1 的科学研究项目——提出假设、设计实验、分析结果、迭代假设。这需要:
- 跨步依赖:每一步的决策都依赖于前几步的结果
- 不确定性管理:实验可能失败,假设可能被证伪
- 资源分配:在有限的时间和计算资源下做出最优决策
- 自我纠错:发现错误后调整方向,而不是继续走错误的路
这些能力正是当前模型最缺乏的。
与其他 AGI 预测的对比
| 人物/机构 | AGI 预测时间 | 核心路径 |
|---|---|---|
| Demis Hassabis (DeepMind) | 2030 年前后 | 持续学习 + 长程推理 |
| Dario Amodei (Anthropic) | 2026-2027 年 | Scaling + 对齐 |
| Sam Altman (OpenAI) | 未给出具体时间 | Scaling + Agent |
| Yann LeCun (Meta) | 至少 10 年以上 | 全新架构(非 LLM) |
Hassabis 的 2030 年预测介于 Amodei 的乐观和 LeCun 的悲观之间,但他给出了更具体的”缺失能力”清单——不是简单地说”需要更多数据/算力”,而是明确指出了需要什么样的能力突破。
对行业的意义
对模型厂商
Scaling Law(加大模型规模)的红利正在边际递减。下一个突破口不在”更大”,而在”更会学习”。
DeepMind 已经在 Gemini 系列中尝试了一些持续学习的实验。如果 Hassabis 的判断正确,那么下一个”代差级”的模型突破,将来自持续学习能力的突破,而不是参数量的增长。
对开发者
如果你正在构建 AI 应用,需要考虑一个趋势:未来的模型会更擅长”从使用中学习”。这意味着:
- 你的应用积累的交互数据,将成为训练下一代模型的宝贵资源
- 能够持续学习和自我改进的 Agent 将成为主流
- “一次性部署”的 AI 应用会被”持续进化”的 AI 应用淘汰
对投资者
Hassabis 的演讲暗示了一个投资方向:持续学习基础设施。包括:
- 在线学习(Online Learning)平台
- 模型持续微调工具
- 长程推理基准和评测体系
一句话总结
AGI 不是”更大的模型”——它是”更会学习的系统”。Hassabis 的 2030 年预测和持续学习论断,为 AI 行业指出了一个比 Scaling Law 更值得关注的方向。