我用 Claude Code 写了快一年的代码。90% 以上的日常 coding 任务交给了它。
但最近我发现了一件不太对劲的事:我开始不会 debug 了。
不是完全不会,是那种"离开 AI 之后,面对一个陌生的 codebase,我能花多长时间定位问题"的能力在下降。以前可能需要 20 分钟,现在可能要 40 分钟,甚至更久。
这不是我一个人的问题。
Agent-Skills 仓库的隐含信息
这周 GitHub Trending 上,agent-skills 这个项目 40,969 颗星。但仔细看看它列出的 skills——code review、migration script、changelog——全是辅助性的技能。
没有一个 skill 叫"独立调试",没有叫"从零架构设计",没有叫"不借助 AI 理解陌生代码"。
因为这些技能对 AI agent 来说不需要。但对人来说,它们是核心能力。
退化不是突然发生的,它是温水煮青蛙
第一阶段:你用 AI 写 boilerplate 代码。省时间,合理。
第二阶段:你用 AI 写业务逻辑。也还行,你可以 review 输出。
第三阶段:你让 AI 处理整个 feature。你只看 diff,不读完整代码。
第四阶段:你不再手动 debug。直接贴 error message 给 AI,等它给出修复方案。
我现在处在第三和第四阶段之间。
问题是:第三和第四阶段的开发者,在 AI 工具不可用的时候(网络断了、API 变了、模型输出变差了),产出能力会断崖式下降。
我不是在说"别用 AI 编码"
恰恰相反。我认为 AI 编码工具是开发者效率的最大增量——没有之一。
但我认为需要一个新的开发习惯:每次 AI 完成一个任务后,花 5 分钟读一遍它写的代码,理解它在做什么,为什么这么做。
这 5 分钟不是浪费。是你在给自己保留"离开 AI 也能活"的底线能力。
公司层面的风险
个人技能退化只是个人问题。但如果一个团队 80% 的代码由 AI 生成,而只有 20% 的人能理解这些代码——这就是一个系统性风险。
人员流动、AI 服务中断、模型能力回退——任何一个事件都可能让团队陷入"我们不知道自己的代码在做什么"的境地。
这已经在一些 AI-native startup 里发生了。他们招人时不再看算法题,只看"能不能 prompt 好 AI"。短期效率确实高,但技术债的形态变了——从"代码写得烂"变成了"没人真正理解代码"。
我的建议
- 每周至少有一个 task 手动完成——不用 AI,纯手工写和 debug。保持手感。
- 读 AI 生成的代码要像读同事的代码一样认真——不 trust,verify。
- 保留一个"无 AI"的编码环境——本地的、离线的,用来做应急测试。
- 团队 code review 的标准不能因为 AI 而降低——相反,要更严,因为生成速度太快,错误也来得更快。
这不是反 AI 的论调。这是"用 AI 但保持清醒"的实用主义。
主要来源:
- 个人使用 Claude Code 和 Cursor 的实践记录
- GitHub Trending 项目观察