AI Agent 的"上下文失忆"困局:AGENTS.md 塞不下百万 Token 的领域知识

AI Agent 的"上下文失忆"困局:AGENTS.md 塞不下百万 Token 的领域知识

核心结论

AI 编程工具的赛道正在经历一个微妙的转折点。当所有产品都在卷模型智能时,开发者社区里开始流传一种完全不同的抱怨:

现在满足基本的生产力了,转而让人崩溃的根本不是模型笨,是它每次开会话都失忆。

这句话切中了 2026 年 AI Agent 实用化面临的最核心瓶颈。

三重失忆困境

1. 配置文件的物理极限

AGENTS.md、CLAUDE.md、.github/copilot-instructions——这些文件是 Agent 获取领域知识的主要途径。但它们的容量是有限的。

当你维护的是一个十万行代码的项目,涉及几十个微服务、复杂的业务逻辑、历史技术债的来龙去脉……这些知识总量可能超过百万 token。没有任何配置文件能装下这么多东西。

2. RAG 找不到”未知的未知”

RAG 确实能帮 Agent 检索已有文档。但它有一个致命盲区:

RAG 搜不到”未知的未知”(unknown unknowns)。

新人入职花两周 pair programming 内化的领域知识,不只是文档里写明的规则,还包括那些没有人写下来的经验判断:

  • 这个模块为什么当初选了方案 A 而不是方案 B
  • 某个接口返回的数据格式在什么极端情况下会变异
  • 哪个测试用例看似多余其实是踩过坑才加上的

这些隐性知识,RAG 无能为力。

3. Skills 维护到想吐

为了解决知识注入问题,开发者开始手动维护 Skills 文件。但结果是:

我自己维护 Skills 维护到想吐。

因为代码在变、业务在变、架构在变。每次变化都需要同步更新 Skills 文件,这变成了一项繁重的维护工作。

对比:人类新人是怎么学习的

在公司里,新人入职花两周 pair 一下就能内化领域知识。这个过程有几个关键特征:

  1. 渐进式学习:不是一次性灌输所有知识,而是在实际工作中逐步积累
  2. 情境化理解:在具体任务中理解为什么要这样做,而不是死记规则
  3. 双向反馈:犯错后被即时纠正,形成更准确的心智模型
  4. 隐性传递:通过观察老手的工作方式,学到文档里没有的东西

目前的 AI Agent 系统几乎没有一个能真正模拟这个过程。

破局方向

渐进式上下文加载

与其试图一次性注入所有知识,不如让 Agent 随着项目交互逐步建立领域理解。Hermes Agent 的 Memory Wiki、OpenClaw 的 Follow-up Commitments 机制,都在探索这个方向。

隐性知识自动化捕获

如果 Agent 能自动记录自己的推理过程、失败经验和修正路径,并在后续会话中引用这些记录,就能形成一种”数字学徒”的学习模式。

领域知识图谱

将项目的架构决策、依赖关系、业务规则组织成可查询的知识图谱,比纯文本的 AGENTS.md 更灵活、更易维护。

行动建议

  • 不要试图把所有知识塞进一个文件:分层管理,核心规则放 AGENTS.md,项目级上下文用 RAG,历史决策记录用知识图谱
  • 让 Agent 参与 Code Review:通过阅读 PR 讨论和代码变更,Agent 能自动学习项目的隐性知识
  • 利用 Session 持久化:Hermes Agent 的 Profiles 功能允许为不同项目保存独立的上下文状态,避免每次从头开始

上下文持久化不是锦上添花,而是 AI Agent 从玩具走向工具的必经之路。谁先解决这个问题,谁就能在 Agent 基础设施的竞争中占据先机。