Гендиректор NVIDIA подтвердил: доля рынка AI-ускорителей в Китае упала до нуля, Micron сообщает, что AI потребляет более половины мировой памяти

Гендиректор NVIDIA подтвердил: доля рынка AI-ускорителей в Китае упала до нуля, Micron сообщает, что AI потребляет более половины мировой памяти

Главный вывод

Два сообщения от полупроводниковых гигантов совпали в один день, очерчивая структурные изменения, происходящие на рынке AI-оборудования:

  1. Гендиректор NVIDIA публично признал: из-за экспортных ограничений США доля компании на китайском рынке высокопроизводительных AI-процессоров упала до нуля
  2. Huawei Ascend ожидает доход от AI-чипов в 2026 году в размере $12 млрд, что на 60% больше, чем в 2025 году
  3. Гендиректор Micron заявил на звонке по итогам отчёта: спрос на AI потребляет более половины мирового объёма битов DRAM и NAND

Вместе эти три пункта ведут к одному выводу: глобальный рынок AI-вычислений раскалывается на две независимые системы цепочек поставок, а ёмкость памяти становится следующим бутылочным горлышком.

Цепная реакция ухода NVIDIA с китайского рынка

Изменение доли рынка

ПериодДоля NVIDIA в КитаеГлавный конкурентКлючевое событие
2023 Q4~90%Huawei Ascend 910BПервый раунд запрета на экспорт A100/H100
2024~50%Huawei Ascend 910B/CВыпущена специальная версия H20
2025~20%Huawei Ascend + BirenH20 также попала под ограничения
2026 Q20%Huawei Ascend доминируетГендиректор публично подтвердил

Кто заполняет пустоту?

Huawei Ascend — крупнейший бенефициар:

  • Ожидаемый доход от AI-чипов в 2026 году: $12 млрд (+60% г/г)
  • DeepSeek V4 был специально оптимизирован для чипов Ascend — это одно решение перенаправило миллиарды заказов от NVIDIA к Huawei
  • Отечественные компании AI-чипов (Biren, Moore Threads и др.) также ускоряют догоняющее развитие

Масштаб влияния:

  • Доля Китая в доходах дата-центров NVIDIA будет продолжать снижаться в финансовых отчётах
  • Китайские AI-компании будут всё больше опираться на отечественное оборудование + стеки открытого ПО
  • Глобальная инфраструктура обучения AI развивается по «двухрельсовой» системе

Micron: AI пожирает глобальную ёмкость памяти

Ключевое заявление из звонка по итогам отчёта Micron за Q2 FY2026:

Спрос на AI приводит к резкому росту требований к битам DRAM и NAND в дата-центрах… AI теперь потребляет память, превышающую половину общей мировой ёмкости.

Что это означает:

1. Цены на память могут продолжать расти

Если AI потребляет более 50% ёмкости памяти, оставшаяся ёмкость для потребительской электроники (телефоны, ПК, автомобили) будет сжиматься. Это может привести к:

  • Высоким ценам на серверную память (DDR5, HBM)
  • Передаче роста цен на потребительскую память
  • Ускорению инвестиционных циклов производителей памяти для расширения мощностей

2. Дефицит поставок HBM продолжится

Спрос на HBM (память с высокой пропускной способностью) для обучения и inference AI особенно силён. GPU NVIDIA, Huawei Ascend и различные кастомные AI-чипы — все нуждаются в больших объёмах HBM. В настоящее время ёмкость HBM контролируется тремя компаниями: SK Hynix, Samsung и Micron, а циклы расширения занимают 18-24 месяца.

3. Связь с AI Capex

Последний прогноз BofA: глобальные капитальные затраты гиперскейлеров на AI превысят $800 млрд в 2026 году, потенциально пересекут $1 трлн в 2027 году. Значительная часть этих расходов потечёт на:

  • Закупку GPU/AI-ускорителей (NVIDIA, Huawei, AMD, кастомные чипы)
  • Закупку памяти (DRAM, HBM, NAND)
  • Инфраструктуру дата-центров

Влияние на разработчиков и предприятия

Если вы в Китае

  • Закупка оборудования: Высокопроизводительные GPU NVIDIA больше недоступны — нужно переходить на Ascend или другие отечественные решения
  • Адаптация ПО: Нужно обращать внимание на отечественные экосистемы ПО для чипов (CANN, MindSpore и т.д.)
  • Облачные сервисы: AI-инстансы отечественных облачных провайдеров комплексно переходят на отечественные чипы

Если вы за пределами Китая

  • Стоимость памяти: Стоимость памяти для AI-inference и обучения может не снизиться быстро
  • Риск цепочки поставок: Если ваши продукты зависят от китайских цепочек поставок, следите за эффектами передачи от технологического разрыва США и Китая
  • Окно возможностей: Рост отечественных экосистем AI-чипов означает новые потребности в инструментальных цепочках, фреймворках и сервисах

Глобальная оценка

Рынок AI-оборудования переходит от «единого глобального рынка, доминируемого NVIDIA» к «двум параллельно развивающимся региональным рынкам». Это не краткосрочная флуктуация, а структурное изменение, движимое экспортными ограничениями, геополитикой и промышленной самодостаточностью.

Для разработчиков AI-приложений это означает:

  • Развёртывание моделей должно учитывать доступность оборудования на целевых рынках
  • Кроссплатформенная совместимость (CUDA против CANN против ROCm) будет становиться всё важнее
  • Аппаратная нейтральность открытых моделей станет конкурентным преимуществом