C
ChaoBro

Делают ли AI-инструменты для кодинга разработчиков сильнее или слабее? Поговорим об этой набившей оскомину теме под другим углом

Делают ли AI-инструменты для кодинга разработчиков сильнее или слабее? Поговорим об этой набившей оскомину теме под другим углом

Если вы заглядывали на Hacker News или форумы разработчиков в последнее время, вы наверняка видели этот аргумент:

«AI-инструменты позволяют джуниорам писать код слишком быстро. Они не понимают, что пишут. Через пять лет эти люди будут уметь только писать промпты.»

Звучит разумно. Но я думаю, что задаётся неправильный вопрос.

Настоящая проблема не в том, «умеют ли они писать код»

Когда изобрели калькуляторы, учителя математики worried, что ученики потеряют навыки устного счёта. Так и произошло — но ученики стали тратить больше времени на продвинутое математическое моделирование.

AI-инструменты для кодинга делают то же самое: освобождают разработчиков от boilerplate-кода.

Настоящая проблема: качество код-ревью снижается.

Когда AI может сгенерировать 200 строк за 30 секунд, сколько терпения у ревьюера проверять строку за строкой? В большинстве случаев запускают тесты, они проходят — и мержат.

Риск невидимый. AI-сгенерированный код хорошо работает на happy path, но обработка edge case часто слабая. Эти слабые места проявляются только в продакшене.

Через пять лет «уметь писать код» не будет редким навыком. «Знать, какой код написать» — будет.


Основные источники:

  • Данные опроса пользователей GitHub Copilot (уровень принятия AI-кода 40%+)
  • Hacker News: "Why senior developers fail to communicate their expertise" (361 points)
  • Личный опыт использования Claude Code / Cursor