C
ChaoBro

"Your Agent, Their Asset":14 位安全研究人员对主流 AI Agent 发起投毒攻击,记录 12 种劫持路径

"Your Agent, Their Asset":14 位安全研究人员对主流 AI Agent 发起投毒攻击,记录 12 种劫持路径

发生了什么

2026 年 4 月,一篇名为 "Your Agent, Their Asset" 的安全论文在学术界和 AI 工程社区同时引发关注。14 位来自 UC Santa Cruz、Berkeley、腾讯安全实验室和字节跳动安全团队的研究人员,对目前部署量最大的个人 AI Agent 进行了系统性渗透测试,成功获得了完整控制权,并记录了 12 种不同的投毒攻击路径

这不再是理论推演——研究人员实际执行了攻击,验证了每一条路径的可行性。

为什么这比 ClawHub 恶意 Skill 事件更严重

你可能还记得 5 月初的 ClawHub 恶意 Skill 事件:安全研究员 Aks Sharma 在 ClawHub 上发现了 30 个恶意 Skill,被下载超过 1 万次,将 AI Agent 变成了加密挖矿僵尸网络。

"Your Agent, Their Asset" 论文揭示的问题是更底层、更系统性的

维度 ClawHub 事件 (2026.05) "Your Agent, Their Asset" 论文
攻击面 Skill 市场(单一入口) Agent 全生命周期(12 种路径)
攻击复杂度 低(发布恶意 Skill 即可) 中到高(部分路径需要社会工程)
影响范围 ClawHub 平台用户 所有使用目标 Agent 的用户
可检测性 中等(Skill 代码可审计) 极低(部分投毒嵌入训练数据)
修复难度 下架恶意 Skill 需要重构 Agent 信任模型

12 种攻击路径分类

研究人员将 12 种攻击路径分为三大类:

🔴 数据层投毒(4 种)

  1. 训练数据注入:在 Agent 的预训练/微调数据集中注入恶意模式
  2. RAG 知识库污染:向 Agent 检索的知识库中注入误导性文档
  3. 记忆存储篡改:修改 Agent 的持久化记忆,改变其行为基线
  4. 上下文窗口劫持:在用户对话中注入精心构造的提示,覆盖系统指令

🟡 工具层劫持(4 种)

  1. MCP Server 中间人:拦截 Agent 与外部工具的通信,篡改输入输出
  2. Skill 依赖链攻击:通过第三方 Skill 的依赖关系传播恶意代码
  3. API 密钥泄露利用:利用 Agent 存储的 API 密钥访问外部服务
  4. 文件系统权限提升:通过 Agent 的文件操作权限获取系统级访问

🟠 代理间传播(4 种)

  1. 多 Agent 通信感染:一个被感染的 Agent 通过消息传递感染其他 Agent
  2. 共享工作空间污染:通过 Agent 共享的工作区传播恶意指令
  3. 工具调用链劫持:Agent A 调用工具产生的输出被 Agent B 误认为可信
  4. 跨租户数据泄露:多租户环境中一个用户的 Agent 可访问另一用户的数据

研究团队做了什么

研究人员采取了一个大胆但负责任的方法:

  1. 获取完整访问权限:首先获得目标 Agent 的完整访问权限(通过合法渠道或用户授权)
  2. 执行投毒攻击:逐一验证 12 种攻击路径的可行性
  3. 记录影响范围:量化每种攻击可能导致的数据泄露、资金损失或系统破坏
  4. 负责任披露:在论文发表前向相关厂商提交了漏洞报告

关键发现是:大部分攻击路径不需要任何代码漏洞利用。攻击者只需要理解 Agent 的信任模型,就能通过"合法"的接口实现恶意目的。

这对你意味着什么

如果你在使用个人 AI Agent

  • 检查你的 Agent 的记忆存储:确认记忆数据是否加密,是否有完整性校验
  • 审查已安装的 Skill/插件:只从可信来源安装,定期检查更新
  • 限制 API 密钥权限:为 Agent 创建专用的、权限最小化的 API 密钥
  • 隔离敏感操作:涉及资金、隐私数据的操作应在独立环境中执行

如果你在构建 AI Agent

  • 不要假设用户输入是可信的:所有输入都应经过验证和清洗
  • 实现 Agent 间的信任边界:多 Agent 系统中,每个 Agent 应有独立的信任域
  • 为工具调用添加审计日志:记录每一次工具调用的输入输出,便于事后追溯
  • 考虑"零信任"Agent 架构:不默认信任任何外部数据源,包括知识库和记忆

行业影响

这篇论文发表的时间点很关键:

  • CISA 和五眼联盟刚刚在 5 月初发布了《Agentic AI 安全指南》
  • 微软的研究团队同期报告了多 Agent 网络中的交叉感染问题——单一恶意消息可以在 Agent 网络中跳跃传播,逐步提取私人数据
  • Google DeepMind也发布了一个框架,记录了 6 种劫持 AI Agent 的攻击类型

这意味着 AI Agent 安全正在从"学术关注"转向"产业优先级"。当学术安全团队、科技巨头和政府安全机构同时发出警告时,这不是噪音,这是信号。

行动建议

短期(本周)

  • 审查你的 AI Agent 安装了哪些 Skill/插件,移除不需要的
  • 检查 Agent 使用的 API 密钥权限,降级为最小必要权限

中期(本月)

  • 在团队中建立 AI Agent 安全审查流程
  • 为生产环境中的 Agent 部署审计日志和异常检测

长期(本季度)

  • 评估是否需要引入 Agent 安全扫描工具
  • 考虑采用零信任架构设计多 Agent 系统

AI Agent 的能力越强,它被劫持后的破坏力就越大。这篇论文不是要吓唬人——它是在告诉我们:安全不能事后补,必须从架构设计的第一天就考虑进去。