結論
NVIDIAはGTC 2026で2つの重要な情報を発表しました:Vera CPUの正式登場、そしてBlackwell + Vera Rubinチップの注文が1兆ドルを突破。VeraはAgentic AIワークロード専用に設計された初のCPUで、88颗の自社製Olympusコア、1.2 TB/sのメモリ帯域幅、NVLink経由で1.8 TB/sのCPU-GPUコヒーレント帯域幅を搭載しています。1兆ドルの注文規模は一つの事実を確認しました:AIインフラ投資は「探索的試験」から「未来への賭け」の段階进入了。
Vera CPU:Agent専用に生まれたプロセッサ
なぜAgentに専用CPUが必要なのか
従来のAIサーバーの典型的な構成は1颗CPUに4颗GPU——この比率はトレーニング時代には合理的でした。なぜならGPUが大部分の計算を担当し、CPUは主にデータ搬送とタスクスケジューリングを行っていたからです。
しかしAgentic AIはこの仮定を変えました。Agentワークロードの特徴は:
- 頻繁なツール呼び出し:Agentは各ステップで外部ツールを呼び出す必要があり、これらの呼び出しはCPUによってオーケストレーションされる
- 論理ゲーティング:いつどのツールを呼び出すか、どのように分岐するか、いつ終了するか——これらはCPU集約型の論理判断
- データ搬送:GPU、メモリ、外部API間でコンテキストデータを搬送
- マルチAgentオーケストレーション:複数のAgentインスタンスのスケジューリングと協調
2026年Q1から、Agentic AI需要の爆発により指揮命令を担当するCPU構成が深刻に不足しています。既存の1:4 CPU-GPU比率ではAgentワークロードのコンカレンシー需要をサポートできません。
Vera CPUコア仕様
| 指標 | 数値 | 意義 |
|---|---|---|
| コア数 | 88颗自社製Olympusコア | 従来のサーバーCPUのコア密度を大幅に超える |
| メモリ帯域幅 | 1.2 TB/s | 大規模コンテキストデータ搬送をサポート |
| CPU-GPUコヒーレント帯域幅 | 1.8 TB/s(NVLink) | CPU-GPUデータ転送ボトルネックを解消 |
| 独立実行 | standalone inferenceをサポート | GPUなしでも推論とオーケストレーションを実行可能 |
| ペア実行 | Rubin GPUと協同 | 完全なトレーニング+推論+Agentオーケストレーションソリューション |
重要な洞察:Veraは独立して実行可能——GPU加速を必要としないAgentタスク(ツール呼び出しオーケストレーション、論理判断、APIルーティング)の場合、Vera CPUを単独でデプロイでき、コストを大幅に削減できます。
1兆ドル注文:数字の背後にあるシグナル
注文規模の比較
黄仁勲はGTC 2026で、BlackwellおよびVera Rubinチップの2027年までの調達注文が1兆ドルに達したと明らかにしました。参照として:
- 2024年全球AIチップ市場規模:約$500億
- 1兆ドルは全球AIチップ市場の20倍の年規模に相当
- これは「試用」ではなく、企業がAIインフラへの確定的な賭け
注文構造の変化
| 時期 | 主要購買者 | 購買目的 |
|---|---|---|
| 2023-2024 | 科技巨头(Meta、Google、Microsoft) | 自社大モデルのトレーニング |
| 2025 | クラウド厂商(AWS、Azure、GCP) | AIクラウドサービスの提供 |
| 2026 | 全業界(金融、医療、製造、小売) | 推論+Agentデプロイ |
変化:AIチップの購買者は「数社の科技巨头」から「全業界」に拡散し、用途は「トレーニング」から「推論とAgentデプロイ」にシフトしました。これはAIインフラ投資の大衆化の標誌です。
格局判断
AIサーバーアーキテクチャへの影響
NVIDIAとAMDはAIサーバーのCPU-GPU比率を再評価しています。アナリストは、Agentic AI需要の成長に伴い、将来のAIサーバーはより高いCPU構成比率(2:4または4:4など)を採用する可能性があり、純CPU Agentサーバー(Veraで軽量Agentオーケストレーション)も出現する可能性があると見ています。
開発者にとっての意味
- ローカルAgentデプロイコストの低下:Veraは独立して推論を実行可能——GPUなしでも軽量Agentをデプロイ可能
- Agentオーケストレーション層の専門化:専用CPUの出現は、Agentオーケストレーションが「付属動作」ではなく、独立したハードウェア最適化分野になることを意味
- ハイブリッドデプロイが常態化:GPUが重い推論を担当 + CPUが軽いオーケストレーションを担当する分離アーキテクチャがAgentデプロイの標準モデルになる
アクション推奨
インフラ計画
- 現在のCPU-GPU比率を評価:AgentワークロードにCPUボトルネック(ツール呼び出し遅延が高い、スケジューリング待ち)がある場合、CPU構成の増加を検討
- Vera CPUの独立デプロイ能力に注目:GPUを必要としないAgentタスク(APIオーケストレーション、ルール判断、軽量推論)の場合、VeraはGPUより経済的な選択肢かもしれない
- ハイブリッドアーキテクチャを計画:GPUがモデル推論を担当、CPUがAgentオーケストレーションを担当する分離アーキテクチャが主流になる
開発者準備
- ツール呼び出し効率を最適化:不要なツール呼び出し回数を削減し、CPUオーケストレーションプレッシャーを軽減
- Agentロジックの軽量化:CPUで実行可能な論理判断とGPUが必要なモデル推論を分離
- NVIDIAフィジカルAIオープンソーススタックに注目:NVIDIAは同時にPhysical AI技術スタック全体をオープンソース化——ロボットと具身智能分野の開発者は優先的にリポジトリをクローンすべき
リスク注意事項
- 1兆ドルは「調達注文」而非「已交付」、実際の出荷とデプロイリズムには不確実性がある
- Vera CPUの具体的な価格と供給時間は完全に開示されていない、開発者は継続的に关注すべき
- AMD或其他厂商が競争力のあるAgent専用CPUを推出した場合、市場格局は急速に変化する可能性