核心结论
AI 编程工具的赛道正在经历一个微妙的转折点。当所有产品都在卷模型智能时,开发者社区里开始流传一种完全不同的抱怨:
现在满足基本的生产力了,转而让人崩溃的根本不是模型笨,是它每次开会话都失忆。
这句话切中了 2026 年 AI Agent 实用化面临的最核心瓶颈。
三重失忆困境
1. 配置文件的物理极限
AGENTS.md、CLAUDE.md、.github/copilot-instructions——这些文件是 Agent 获取领域知识的主要途径。但它们的容量是有限的。
当你维护的是一个十万行代码的项目,涉及几十个微服务、复杂的业务逻辑、历史技术债的来龙去脉……这些知识总量可能超过百万 token。没有任何配置文件能装下这么多东西。
2. RAG 找不到”未知的未知”
RAG 确实能帮 Agent 检索已有文档。但它有一个致命盲区:
RAG 搜不到”未知的未知”(unknown unknowns)。
新人入职花两周 pair programming 内化的领域知识,不只是文档里写明的规则,还包括那些没有人写下来的经验判断:
- 这个模块为什么当初选了方案 A 而不是方案 B
- 某个接口返回的数据格式在什么极端情况下会变异
- 哪个测试用例看似多余其实是踩过坑才加上的
这些隐性知识,RAG 无能为力。
3. Skills 维护到想吐
为了解决知识注入问题,开发者开始手动维护 Skills 文件。但结果是:
我自己维护 Skills 维护到想吐。
因为代码在变、业务在变、架构在变。每次变化都需要同步更新 Skills 文件,这变成了一项繁重的维护工作。
对比:人类新人是怎么学习的
在公司里,新人入职花两周 pair 一下就能内化领域知识。这个过程有几个关键特征:
- 渐进式学习:不是一次性灌输所有知识,而是在实际工作中逐步积累
- 情境化理解:在具体任务中理解为什么要这样做,而不是死记规则
- 双向反馈:犯错后被即时纠正,形成更准确的心智模型
- 隐性传递:通过观察老手的工作方式,学到文档里没有的东西
目前的 AI Agent 系统几乎没有一个能真正模拟这个过程。
破局方向
渐进式上下文加载
与其试图一次性注入所有知识,不如让 Agent 随着项目交互逐步建立领域理解。Hermes Agent 的 Memory Wiki、OpenClaw 的 Follow-up Commitments 机制,都在探索这个方向。
隐性知识自动化捕获
如果 Agent 能自动记录自己的推理过程、失败经验和修正路径,并在后续会话中引用这些记录,就能形成一种”数字学徒”的学习模式。
领域知识图谱
将项目的架构决策、依赖关系、业务规则组织成可查询的知识图谱,比纯文本的 AGENTS.md 更灵活、更易维护。
行动建议
- 不要试图把所有知识塞进一个文件:分层管理,核心规则放 AGENTS.md,项目级上下文用 RAG,历史决策记录用知识图谱
- 让 Agent 参与 Code Review:通过阅读 PR 讨论和代码变更,Agent 能自动学习项目的隐性知识
- 利用 Session 持久化:Hermes Agent 的 Profiles 功能允许为不同项目保存独立的上下文状态,避免每次从头开始
上下文持久化不是锦上添花,而是 AI Agent 从玩具走向工具的必经之路。谁先解决这个问题,谁就能在 Agent 基础设施的竞争中占据先机。