結論
ウォールストリートはAIインフラの投資ロジックを再評価している:AIが「単一回の推論」から「自律実行」へ移行するにつれて、コンピューティング需要の重心がGPUからCPUとメモリへシフトしている。
これはアナリストの机上の空論ではない。DeepSeek V4の百万トークンコンテキスト、OpenClawの24時間稼働ローカルエージェント、Gemini Daily Briefの毎日のデータスキャン — これらのユースケースはGPUの並列コンピューティング能力だけでなく、大量のCPUコンピューティングとメモリ帯域幅を消費している。
レポートの核心ポイント
なぜエージェント時代により多くのCPUとメモリが必要なのか
| ワークロードタイプ | 主要ハードウェア | トレンド |
|---|---|---|
| モデルトレーニング | GPU(NVIDIA H200/B200) | 継続的成長 |
| 単一回の推論(チャット) | GPU | 成長中 |
| 自律エージェント稼働 | CPU + メモリ | 爆発的成長 |
| コンテキスト管理(百万トークン) | メモリ | 爆発的成長 |
| ローカルモデルデプロイ | CPU + メモリ | 急速成長 |
主要ロジック:
- エージェントは継続的な稼働が必要:一度きりのチャットリクエストとは異なり、エージェントはバックグラウンドで継続的に監視・決定・実行する必要がある — これにはCPUが長期間オンラインであることが必要
- コンテキストウィンドウが肥大化:DeepSeek V4は1Mトークンのコンテキストをサポートし、これらはメモリに常駐する必要がある
- エッジ推論の台頭:OpenClawのようなローカルデプロイのトレンドは、より多くの推論がクラウドGPUではなくCPU上で行われることを意味する
受益企業リスト
CPU & アクセラレータ:
- NVIDIA(GPUだけでなく、CPU製品ラインも拡張中)
- AMD(EPYCサーバーCPU + MI300アクセラレータ)
- Intel(XeonサーバーCPU + Gaudiアクセラレータ)
- Arm(アーキテクチャライセンス、ほぼすべてのモバイルおよびエッジAIで使用)
メモリ:
- Micron(HBMおよびDDR5需要が急増)
- Samsung(HBM3E能力拡張)
- SK hynix(HBM市場リーダー、NVIDIAの主要サプライヤー)
チップ製造 & 装置:
- TSMC(先端プロセスファウンドリの覇者)
- ASML(EUVリソグラフィの独占)
データによる裏付け
いくつかの重要なデータポイントがこのトレンドを検証している:
- DeepSeek V4:1Mトークンコンテキストは、各会話がコンテキスト状態を保存するために約2GBのメモリを必要とする
- OpenClaw:32万GitHubスター、大部分が個人デバイスにデプロイ(主にCPU推論)
- 华为昇騰:2026年のAIチップ収入が$120億と予想、その多くがCPU-コプロセッサアーキテクチャ
格局の判断
NVIDIAへの影響
NVIDIAは依然としてAIチップの絶対的覇者だが、このレポートは私たちに思い出させる:
- NVIDIAの堀はGPUトレーニングにある
- エージェント稼働側(CPU + メモリ)では、NVIDIAのシェアはトレーニング側ほど支配的ではない
- NVIDIAのGrace CPU + BlueField DPUは対応戦略だが、まだ初期段階
AMDとIntelの機会
- AMDのEPYC + MI300コンボは推論側でコスト優位性がある
- IntelのGaudi 3アクセラレータは推論市場の一部を奪取
- 両社とも「AI PC」コンセプトにベットしている — ローカルCPU推論がコアのセールスポイント
メモリ企業への影響
HBM(高帯域幅メモリ)は2025-2026年で最も確実な半導体成長ストーリーである:
- SK hynixがHBM3Eでリード
- Samsungが追い上げ中
- MicronのHBM歩留まりが改善中
アドバイス
- 投資家:NVIDIAのみを保有している場合、エージェント時代のコンピューティング投資リスクを分散するために、GPU以外のメモリとCPU銘柄への配分を検討すべき
- 開発者:ローカルエージェントデプロイ(OpenClawなど)は予想以上にCPUとメモリを必要とする — ハードウェア選定時はGPUだけを見るな
- チップ業界関係者:エージェント推論側のチップ最適化(CPU推論加速、メモリ帯域幅最適化)が次の技術ホットスポットになる可能性がある