C
ChaoBro

Капитальные расходы на ИИ в 2026 году достигают $715 млрд, поставки чипов HBM распроданы

Капитальные расходы на ИИ в 2026 году достигают $715 млрд, поставки чипов HBM распроданы

Главное в начале

Четыре технологических гиганта (Amazon, Google, Meta, Microsoft) прогнозируют капитальные расходы на ИИ в размере $715 млрд в 2026 году, при этом почти все приростные расходы обусловлены ИИ.

Тем временем瓶颈 вычислений для ИИ смещается от GPU к HBM (памяти с высокой пропускной способностью) — CEO Micron на последнем звонке по результатам признал, что поставки HBM на 2026 год полностью распроданы, удовлетворяя лишь 50-65% спроса клиентов.

Разбор данных

Капитальные расходы на ИИ по компаниям в 2026 году

КомпанияПотолок Capex 2026Рост г/гОсновное использование
Amazon (AWS)~$200 млрдУскорение (расходы Bedrock ускорились до самых высоких за 15 кварталов)GPU-кластеры + ЦОД + энергия
Google~$190 млрдУстойчивый ростTPU + GPU + инфраструктура ЦОД
Microsoft~$190 млрдПоддержание высокого уровняAzure AI + инфраструктура OpenAI
Meta~$135 млрдЗначительное увеличениеОбучение Llama + ИИ-реклама + метавселенная
Итого~$715 млрд

Сдвиг瓶颈 в цепочке поставок

Фаза瓶颈Текущий статус
2023-2024Ёмкость GPU (NVIDIA A100/H100)Массовое расширение ёмкости, ослабление
2025Продвинутая упаковка (CoWoS)TSMC расширяет
2026Память HBMРаспродано по всей отрасли, дефицит

Рынок HBM

ПоставщикДоля рынкаСтатус ёмкости 2026Примечания
SK Hynix~50%Выручка Q1 утроилась г/г, впервые превысила 50 трлн вонОбъявлен план расширения на $13 млрд
Micron~25%Может удовлетворить лишь 50-65% спросаЗаключены многолетние соглашения по объёму и цене
Samsung~20%ДогоняетПроизводство HBM3E наращивается
Другие~5%

Почему ИИ становится «memory-first»

CEO Micron передал ключевой сигнал на звонке по результатам:

«ИИ становится отраслью, где память на первом месте — потому что моделям и агентам требуется больше времени на “размышления” и удержание большего контекста.»

Техническая логика

Пропускная способность токенов = Размер HBM × Пропускная способность HBM

Более длительное мышление агентов → Большие окна контекста → Раздувание KV-кэша → Экспоненциальный рост спроса на HBM

Когда модели масштабируются с 7B до 70B параметров, а окна контекста — с 8K до 128K, спрос на HBM растёт значительно быстрее линейного.

Разворот SanDisk

Результаты SanDisk также подтверждают этот тренд:

  • Прошлый год: убыток $0,30 на акцию; этот квартал: $23,41 на акцию (при прогнозе $14,50)
  • Выручка: $5,95 млрд (при прогнозе $4,70 млрд)
  • 5 ИИ-компаний подписали долгосрочные соглашения о поставках

Индустрия хранения данных совершила разворот от убытков к сверхприбыли, движимая спросом на ИИ.

Оценка ситуации

Краткосрочное влияние (2026)

  • Дефицит поставок HBM сохранится весь год, повышая стоимость вывода GPU
  • Оптимизация моделей будет всё больше фокусироваться на эффективности памяти: квантование, MoE, сжатие KV-кэша
  • Отечественные альтернативы (например, CXMT) получат ускорение от политики

Среднесрочные тренды (2027-2028)

  • Выпуск стандарта HBM4 может缓解 часть давления на поставки
  • Технология пулирования памяти CXL может изменить парадигму распределения памяти
  • Архитектуры чипов «вычисление в памяти» могут стать новым измерением конкуренции

Инвестиционная логика

НаправлениеОпределённостьПотенциал ростаПредставительные цели
Производители HBM★★★★★★★★☆☆SK Hynix, Micron
Вендоры GPU★★★★☆★★★★☆NVIDIA, AMD
REIT ЦОД★★★★☆★★☆☆☆Фонды недвижимости ЦОД
ПО оптимизации памяти★★★☆☆★★★★★Инструменты квантования/сжатия

Рекомендации к действию

Для команд ИИ-приложений

  • Немедленно оцените эффективность использования памяти вашей моделью; приоритизируйте фреймворки с поддержкой квантованного вывода
  • Рассмотрите модели архитектуры MoE для значительного снижения спроса на HBM при эквивалентной производительности
  • Следите за техниками оптимизации KV-кэша (PagedAttention, FlashDecoding)

Для закупок оборудования

  • Дефицит HBM может продлиться 12-18 месяцев; рассмотрите раннее заключение контрактов на поставки
  • Оцените серию AMD MI как альтернативу NVIDIA (лучшее соотношение цена/производительность в некоторых сценариях)

Для разработчиков

  • Изучите техники квантования моделей (INT4/INT8) для запуска более крупных моделей на ограниченном оборудовании
  • Следите за обновлениями оптимизации памяти в локальных фреймворках вывода, таких как llama.cpp и MLX