上周在 Hacker News 上看到一条讨论,标题直白得让人不舒服:「AI 编程工具让初级开发者变强了,但让他们永远停留在初级。」
底下 170 多条评论,吵翻了。
一个我自己踩过的坑
说个真事。我最近接手了一个同事写的 Node.js 服务,代码是用 Cursor 生成的——整整 2000 行,没有一行注释,架构决策全靠猜。
我知道他为什么这么干。Cursor 的 @codebase 功能太香了,描述需求,代码就出来了。但他没意识到一件事:AI 生成的代码,最终需要人来维护。
这不是 Cursor 的问题。这是使用方式的问题。但问题在于,当工具太好用的时候,很少有人愿意停下来想「我该怎么用才对」。
技能断层的两种形态
现在开发者群体里出现了一个有趣的分化:
一类人是「AI 增强型开发者」。他们用 Claude Code 做 scaffolding,用 Cursor 做快速原型,但核心逻辑自己写,review 自己看,架构决策自己做。AI 是加速器。
另一类人是「AI 依赖型开发者」。需求来了,prompt 扔进去,代码出来了,跑通了,提交。全程没写过一行代码——甚至没读过 AI 生成的代码。
后者最大的问题不是「写不出代码」。是**「读不懂代码」**。
当你的同事提交了一段有 bug 的 AI 生成代码,而你没有能力读懂它、调试它、修复它——你就从开发者降级成了 prompt 输入员。
这个现象不是猜测
GitHub 自己的数据也暗示了趋势。2025 年底的调查显示,使用 Copilot 的开发者接受 AI 建议的代码比例超过 40%。也就是说,你写的代码里,每 10 行有 4 行不是你写的。
这本身不是问题。问题是:
- 你有没有 review 过那 4 行?
- 你能不能解释那 4 行在做什么?
- 如果那 4 行出了 bug,你能不能修?
如果你的回答有任何犹豫,你就在那个断层里。
公司层面的风险
从管理角度,这个风险更隐蔽。
一个团队如果大量依赖 AI 生成代码,短期内产出确实会飙升。但长期来看:
代码质量的可控性下降了。 因为写代码的人(AI)和审查代码的人(开发者)之间的能力差距在拉大。
知识传承断裂了。 资深开发者退休或者离职后,留下的 AI 生成代码对新人来说是一座黑箱——没人知道当初为什么这么写。
调试成本转移了。 以前写代码时犯的错,写的时候就发现了。现在 AI 替你写,错在运行时才暴露,定位成本翻倍。
不是什么"AI 取代人类"的废话
我要澄清一点:我不是在说「AI 编程工具不好」。我自己也在用 Claude Code,效率提升是真实的。
我在说的是:工具的使用方式决定它是放大器还是麻醉剂。
如果你的工作流是「描述需求 → AI 生成 → 你 review → 你理解 → 你提交」,那 AI 在帮你。
如果你的工作流是「描述需求 → AI 生成 → 跑通了 → 提交」,那你在给自己埋雷。
一个具体的建议
如果你正在用 AI 编程工具,试一下这个习惯:
每段 AI 生成的代码,至少读两遍。 第一遍看它在做什么,第二遍想它为什么这么做。如果有不理解的地方,追问 AI,直到你搞懂为止。
这多花的 5 分钟,可能在未来某个凌晨 3 点的紧急 bug 里救你一命。
主要来源:
- GitHub Copilot 官方博客及用户调查数据
- Claude Code 官方文档及社区讨论
- Hacker News 相关讨论线程("Why senior developers fail to communicate their expertise",361 points)