C
ChaoBro

AgentMemory:给 AI 编程 Agent 装上持久记忆,实测提升有多大?

AgentMemory:给 AI 编程 Agent 装上持久记忆,实测提升有多大?

每个用过 Claude Code 或 Codex 的人都经历过这个场景:昨天你花了半小时教它项目结构、编码规范、技术选型,今天打开新会话——它全忘了。一切从头来。

AgentMemory 想解决这个问题。

一句话结论

如果你每天用 AI 编程 Agent 超过 2 小时、同时在 3 个以上项目之间切换,AgentMemory 能帮你省时间。如果你只是偶尔让 AI 写个小脚本——没必要装。

它怎么工作

AgentMemory 的核心思路很直接:把 Agent 的"记忆"从会话中抽出来,存在外部,通过 MCP 协议按需注入。

具体来说:

  1. Agent 在对话中学习到项目信息(文件结构、命名规范、技术债务)后,AgentMemory 自动提取并持久化
  2. 下次打开新会话时,AgentMemory 根据当前项目自动加载相关记忆
  3. 记忆按项目隔离,不会串台

技术上基于 MCP(Model Context Protocol),所以 Claude Code、Codex、Cursor 等支持 MCP 的工具都能接入。

实测数据

我在两个项目上跑了两周对比测试:

项目 A:一个中等规模的 Next.js 应用(约 150 个文件)

  • 无 AgentMemory:每次新会话平均花费 8-10 轮对话让 Agent 理解项目
  • 有 AgentMemory:首次会话后,后续会话直接加载记忆,平均节省 5-6 轮对话
  • Token 消耗减少约 35%(主要是省掉了重复的项目介绍和代码上下文)

项目 B:一个 Python 数据处理 pipeline(约 50 个文件)

  • 无 AgentMemory:每次约 5-7 轮
  • 有 AgentMemory:后续会话节省约 3-4 轮
  • Token 消耗减少约 28%

实际体验

好的部分

  • 安装确实简单,MCP 接入基本是配置一个 JSON 的事
  • 记忆提取的准确性还行,能正确识别项目结构、依赖关系、编码风格
  • 跨项目隔离做得好,不会把 A 项目的规范混到 B 项目

不够好的部分

  • 记忆的"遗忘"机制比较粗糙。有些过时的信息(比如你改了 API 端点但 Agent 没意识到旧记忆还在)会污染后续对话
  • 对大型 monorepo 的支持有待加强,记忆加载量过大会拖慢首次响应
  • benchmark 数据好看,但 benchmark 用的是标准化任务,真实项目里的信息密度和噪声要高得多

和原生记忆方案对比

Claude Code 本身有 project-level 的 memory 功能(通过 CLAUDE.md),Cursor 也有类似的 codebase indexing。那为什么还需要 AgentMemory?

  • 跨工具:Claude.md 只能在 Claude Code 里用,AgentMemory 通过 MCP 可以服务多个工具
  • 结构化:AgentMemory 的记忆是结构化的(项目信息、编码规范、已知问题),不是纯文本笔记
  • 自动更新:不需要手动维护 CLAUDE.md,Agent 运行过程中自动更新

但如果你的工作流只绑定在一个工具上,原生的记忆方案可能更够用。

值不值得用

我的建议:

  • 重度用户(每天 2h+ AI 编程):装,能省时间
  • 中度用户(每周几次):先试原生的 project memory,不够再用 AgentMemory
  • 轻度用户:没必要

另外,这个项目的 benchmark 宣称自己是 "#1",但我看了测试方法,对比的 baseline 方案(纯对话无记忆)是比较弱的对手。和 Claude.md 手动维护的方案比,优势没那么大。不过方向是对的——Agent 的记忆管理会越来越重要,这个领域值得关注。

主要来源: