モルガン・スタンレーレポート:自律型AIエージェントがCPUとメモリ需要を爆発させる、GPU以外の投資機会

モルガン・スタンレーレポート:自律型AIエージェントがCPUとメモリ需要を爆発させる、GPU以外の投資機会

結論

ウォールストリートはAIインフラの投資ロジックを再評価している:AIが「単一回の推論」から「自律実行」へ移行するにつれて、コンピューティング需要の重心がGPUからCPUとメモリへシフトしている。

これはアナリストの机上の空論ではない。DeepSeek V4の百万トークンコンテキスト、OpenClawの24時間稼働ローカルエージェント、Gemini Daily Briefの毎日のデータスキャン — これらのユースケースはGPUの並列コンピューティング能力だけでなく、大量のCPUコンピューティングとメモリ帯域幅を消費している。

レポートの核心ポイント

なぜエージェント時代により多くのCPUとメモリが必要なのか

ワークロードタイプ主要ハードウェアトレンド
モデルトレーニングGPU(NVIDIA H200/B200)継続的成長
単一回の推論(チャット)GPU成長中
自律エージェント稼働CPU + メモリ爆発的成長
コンテキスト管理(百万トークン)メモリ爆発的成長
ローカルモデルデプロイCPU + メモリ急速成長

主要ロジック:

  1. エージェントは継続的な稼働が必要:一度きりのチャットリクエストとは異なり、エージェントはバックグラウンドで継続的に監視・決定・実行する必要がある — これにはCPUが長期間オンラインであることが必要
  2. コンテキストウィンドウが肥大化:DeepSeek V4は1Mトークンのコンテキストをサポートし、これらはメモリに常駐する必要がある
  3. エッジ推論の台頭:OpenClawのようなローカルデプロイのトレンドは、より多くの推論がクラウドGPUではなくCPU上で行われることを意味する

受益企業リスト

CPU & アクセラレータ

  • NVIDIA(GPUだけでなく、CPU製品ラインも拡張中)
  • AMD(EPYCサーバーCPU + MI300アクセラレータ)
  • Intel(XeonサーバーCPU + Gaudiアクセラレータ)
  • Arm(アーキテクチャライセンス、ほぼすべてのモバイルおよびエッジAIで使用)

メモリ

  • Micron(HBMおよびDDR5需要が急増)
  • Samsung(HBM3E能力拡張)
  • SK hynix(HBM市場リーダー、NVIDIAの主要サプライヤー)

チップ製造 & 装置

  • TSMC(先端プロセスファウンドリの覇者)
  • ASML(EUVリソグラフィの独占)

データによる裏付け

いくつかの重要なデータポイントがこのトレンドを検証している:

  • DeepSeek V4:1Mトークンコンテキストは、各会話がコンテキスト状態を保存するために約2GBのメモリを必要とする
  • OpenClaw:32万GitHubスター、大部分が個人デバイスにデプロイ(主にCPU推論)
  • 华为昇騰:2026年のAIチップ収入が$120億と予想、その多くがCPU-コプロセッサアーキテクチャ

格局の判断

NVIDIAへの影響

NVIDIAは依然としてAIチップの絶対的覇者だが、このレポートは私たちに思い出させる:

  • NVIDIAの堀はGPUトレーニングにある
  • エージェント稼働側(CPU + メモリ)では、NVIDIAのシェアはトレーニング側ほど支配的ではない
  • NVIDIAのGrace CPU + BlueField DPUは対応戦略だが、まだ初期段階

AMDとIntelの機会

  • AMDのEPYC + MI300コンボは推論側でコスト優位性がある
  • IntelのGaudi 3アクセラレータは推論市場の一部を奪取
  • 両社とも「AI PC」コンセプトにベットしている — ローカルCPU推論がコアのセールスポイント

メモリ企業への影響

HBM(高帯域幅メモリ)は2025-2026年で最も確実な半導体成長ストーリーである:

  • SK hynixがHBM3Eでリード
  • Samsungが追い上げ中
  • MicronのHBM歩留まりが改善中

アドバイス

  • 投資家:NVIDIAのみを保有している場合、エージェント時代のコンピューティング投資リスクを分散するために、GPU以外のメモリとCPU銘柄への配分を検討すべき
  • 開発者:ローカルエージェントデプロイ(OpenClawなど)は予想以上にCPUとメモリを必要とする — ハードウェア選定時はGPUだけを見るな
  • チップ業界関係者:エージェント推論側のチップ最適化(CPU推論加速、メモリ帯域幅最適化)が次の技術ホットスポットになる可能性がある