Отчёт Morgan Stanley: автономные AI-агенты разожгут спрос на CPU и память, инвестиционные возможности за пределами GPU

Отчёт Morgan Stanley: автономные AI-агенты разожгут спрос на CPU и память, инвестиционные возможности за пределами GPU

Выводы

Уолл-стрит пересматривает инвестиционную логику инфраструктуры ИИ: по мере перехода ИИ от «единичного инференса» к «автономной работе» центр вычислительных потребностей смещается от GPU к CPU и памяти.

Это не просто кабинетные теории аналитиков. Контекст в миллион токенов DeepSeek V4, круглосуточная работа локальных агентов OpenClaw, ежедневное сканирование данных Gemini Daily Brief — эти сценарии использования потребляют огромные объёмы вычислительной мощности CPU и пропускной способности памяти, а не только параллельные вычислительные мощности GPU.

Ключевые тезисы отчёта

Почему эпоха агентов требует больше CPU и памяти

Тип рабочей нагрузкиОсновное оборудованиеТренд
Обучение моделейGPU (NVIDIA H200/B200)Продолжающийся рост
Единичный инференс (чат)GPUРастущий
Автономная работа агентовCPU + памятьВзрывной рост
Управление контекстом (миллион токенов)ПамятьВзрывной рост
Локальное развёртывание моделейCPU + памятьБыстрый рост

Ключевая логика:

  1. Агентам нужна непрерывная работа: В отличие от одноразовых чат-запросов, агентам необходимо постоянно мониторить, принимать решения и выполнять действия в фоновом режиме — для этого CPU должны оставаться онлайн длительное время
  2. Контекстные окна раздуваются: DeepSeek V4 поддерживает контекст в 1 млн токенов, который должен находиться в памяти
  3. Edge-инференс набирает силу: Тенденция локального развёртывания (как у OpenClaw) означает, что больше инференса происходит на CPU, а не на облачных GPU

Список компаний-бенефициаров

CPU и ускорители:

  • NVIDIA (не только GPU, линейка CPU также расширяется)
  • AMD (серверный CPU EPYC + ускоритель MI300)
  • Intel (серверный CPU Xeon + ускоритель Gaudi)
  • Arm (лицензирование архитектуры, используется практически во всех мобильных и edge AI)

Память:

  • Micron (спрос на HBM и DDR5 резко растёт)
  • Samsung (расширение мощностей HBM3E)
  • SK hynix (лидер рынка HBM, основной поставщик NVIDIA)

Производство чипов и оборудование:

  • TSMC (лидер передового процесса литейного производства)
  • ASML (монополия на EUV-литографию)

Подтверждающие данные

Несколько ключевых данных подтверждают этот тренд:

  • DeepSeek V4: контекст в 1 млн токенов означает, что каждый разговор требует примерно 2 ГБ памяти для хранения состояния контекста
  • OpenClaw: 320 тысяч звёзд на GitHub, в основном развёрнут на персональных устройствах (преимущественно CPU-инференс)
  • Huawei Ascend: ожидаемый доход от AI-чипов в 2026 году — $12 млрд, большая часть — в архитектурах CPU-сопроцессор

Оценка ландшафта

Влияние на NVIDIA

NVIDIA остаётся абсолютным гегемоном AI-чипов, но этот отчёт напоминает нам:

  • Ров NVIDIA находится в обучении на GPU
  • На стороне работы агентов (CPU + память) доля рынка NVIDIA не столь доминирующа, как в обучении
  • Grace CPU + BlueField DPU от NVIDIA — это стратегия ответа, но она всё ещё на ранних стадиях

Возможности для AMD и Intel

  • Комбинация EPYC + MI300 от AMD имеет преимущество в стоимости на стороне инференса
  • Ускоритель Gaudi 3 от Intel захватывает часть рынка инференса
  • Обе компании делают ставку на концепцию «AI PC» — локальный CPU-инференс является ключевым аргументом продаж

Влияние на компании памяти

HBM (память с высокой пропускной способностью) — самая определённая история роста полупроводников 2025-2026 годов:

  • SK hynix лидирует в HBM3E
  • Samsung догоняет
  • Выход HBM у Micron улучшается

Рекомендации к действию

  • Инвесторы: если вы держите только NVIDIA, рассмотрите распределение в акции памяти и CPU помимо GPU, чтобы диверсифицировать инвестиционные риски в вычислениях в эпоху агентов
  • Разработчики: локальное развёртывание агентов (как OpenClaw) требует гораздо больше CPU и памяти, чем ожидалось — не смотрите только на GPU при выборе оборудования
  • Специалисты чиповой индустрии: оптимизация чипов для инференса агентов (ускорение CPU-инференса, оптимизация пропускной способности памяти) может стать следующей технологической горячей точкой