C
ChaoBro

AIプログラミングツールは「書けるが読めない」開発者を生んでいるのか?

AIプログラミングツールは「書けるが読めない」開発者を生んでいるのか?

先週Hacker Newsである議論を見かけた。タイトルは不快なほど率直だった:「AIプログラミングツールはジュニア開発者を強くしたが、永久にジュニアのままに留めている。」

下に170件以上のコメントがあり、大荒れだった。

自分が実際にハマった罠

実話をしよう。最近同僚が書いたNode.jsサービスを引き継いだ——コードはCursorで生成されたもので、整整2,000行、コメントは1行もなく、アーキテクチャの決定はすべて推測に頼るしかなかった。

彼がなぜそうしたかは分かっている。Cursorの@codebase機能があまりに便利で、要件を説明すればコードが出てくる。しかし彼が気づかなかったことがある:AIが生成したコードは、最終的に人間がメンテナンスする必要があるということだ。

これはCursorの問題ではない。使い方の問題だ。しかし問題なのは、ツールが便利すぎる時、「どう使うべきか」を考える人はほとんどいないということ。

スキル断層の2つの形態

現在開発者コミュニティに面白い分化が現れている:

一类は「AI強化型開発者」。Claude Codeでスキャフォールディングをし、Cursorで高速プロトタイピングを行うが、核心ロジックは自分で書き、レビューは自分で行い、アーキテクチャの決定は自分で行う。AIは加速器だ。

另一类は「AI依存型開発者」。要件が来たら、プロンプトを投げ込み、コードが出てきて、動いて、提出。一行もコードを書いていない——AIが生成したコードすら読んでいない。

後者の最大の問題は「コードが書けない」ことではない。**「コードが読めない」**ことだ。

同僚がバグのあるAI生成コードを提出した時、それを読み、デバッグし、修正する能力がなければ——あなたは開発者からプロンプト入力係に格下げされたことになる。

この現象は推測ではない

GitHub自身のデータも傾向を示唆している。2025年末の調査では、Copilotを使用する開発者がAIの提案を受け入れるコードの割合が40%を超えている。つまり、あなたが書いたコードの10行中4行はあなた自身が書いたものではない。

それ自体は問題ではない。問題は:

  • その4行をレビューしたか?
  • その4行が何をしているか説明できるか?
  • その4行にバグがあったら修正できるか?

もしどれかに躊躇があれば、あなたはその断層の中にいる。

会社レベルのリスク

管理の観点から、このリスクはより隠れている。

チームがAI生成コードに大きく依存している場合、短期的には確かに生産量が急増する。しかし長期的には:

コード品質のコントロールが低下する。 コードを書く側(AI)とレビューする側(開発者)の間の能力格差が広がっているため。

知識の継承が断絶する。 シニア開発者が退職または離職した後、残されたAI生成コードは新人にとってブラックボックス——なぜそう書かれたのか誰も知らない。

デバッグコストが転嫁された。 以前はコードを書いている時に発見した間違いが、今はAIが代わりに書くため実行時に初めて露呈し、特定コストが倍増する。

「AIが人間に取って代わる」という废话ではない

明確にしたい:私は「AIプログラミングツールは良くない」と言っているのではない。自分もClaude Codeを使っており、効率向上は現実のものだ。

私が言っているのは:ツールの使い方が、それが増幅剤になるか麻酔剤になるかを決定するということ。

ワークフローが「要件を説明 → AIが生成 → あなたがレビュー → あなたが理解 → 提出」なら、AIはあなたを助けている。

ワークフローが「要件を説明 → AIが生成 → 動いた → 提出」なら、あなたは自分に地雷を埋めている。

具体的なアドバイス

AIプログラミングツールを使っているなら、この習慣を試してほしい:

AIが生成したコードは少なくとも2回読む。 1回目は何をしているかを見る、2回目はなぜそうしているかを考える。理解できない部分があれば、AIに追问して、分かるまで追求する。

この余分な5分が、ある凌晨3時の緊急バグ対応であなたの命を救うかもしれない。


主要ソース:

  • GitHub Copilot 公式ブログおよびユーザー調査データ
  • Claude Code 公式ドキュメントおよびコミュニティ議論
  • Hacker News 関連議論スレッド(「Why senior developers fail to communicate their expertise」、361 points)