Ключевой вывод
Фокус конкуренции в AI-инфраструктуре фундаментально смещается: от вычислительных ядер GPU к ёмкости и пропускной способности HBM.
Почему HBM — новое бутылочное горлышко
В AI-инференсе и обучении вычислительная мощность GPU больше не является ограничивающим фактором. Настоящее бутылочное горлышко — скорость перемещения данных из памяти в вычислительные блоки.
Рекомендации
- Для чип-индустрии: Цепочка поставок HBM — более определённый трек роста, чем GPU-чипы
- Для разработчиков AI-приложений: Учитывайте требования HBM при выборе моделей
- Для инвесторов: Расширение производства памяти — «вторая волна» инвестиций в AI-инфраструктуру