「推論時代」への移行とCPUの再評価:技術的な観点と投資家が見るべきポイント
![]()
これまでAIインフラ投資の主役は、ほぼGPUでした。
大規模言語モデルを学習するには、膨大な行列演算を高速に処理する必要があります。そのため、NvidiaのGPU、HBM、先端パッケージ、データセンター電力が、AI投資の中心テーマになってきました。
しかし、ここにきて少し違う変化が起きています。
AIの利用フェーズが、モデルを作る「学習」から、実際にユーザーの問いに答え、コードを書き、業務を実行する「推論」へと広がり始めているためです。
特に重要なのは、AIエージェントです。
AIエージェントは、単に一度だけ回答を返すチャットボットではありません。複数のタスクを分解し、外部ツールを呼び出し、条件分岐を行い、必要に応じて何度も推論を繰り返します。
この分野では、GPUだけではなく、CPU、メモリ、ストレージ、ネットワーク、そしてそれらを制御するシステム全体の重要性が増していきます。
今回のCPU価格上昇は、その変化を示す非常に分かりやすいシグナルだと思います。
直近の動き
まず、MetaがAmazonのGraviton CPUを使う大型契約を結んだことは、CPUの重要性を示唆しています。
Amazonの発表によると、MetaはAWSのGraviton CPUをAIインフラに利用する複数年契約を結び、その規模は数十億ドル規模になると報じられています。AWS側は、この契約がMetaのAIエージェント関連ワークロードを支えるものだと説明しています。
これは、AIインフラの価値がGPUだけで決まるわけではなくなっていることを示しています。
もちろん、巨大モデルの学習や大規模な並列演算では、GPUが引き続き中心です。しかし、AIエージェントが実際の業務の中で動くようになると、処理の性質はかなり変わります。
多数のリクエストを受け、状態を管理し、外部APIを呼び出し、データを移動し、推論結果を次の処理につなげる。
このような処理では、GPUだけでなく、CPUによる制御とオーケストレーションが重要になります。
Intelの好決算が示したCPUの再評価
この流れはIntelの業績にも表れています。
Intelは2026年第1四半期決算で、売上高136億ドル、前年比7%増を発表しました。特にデータセンターおよびAI部門の売上は51億ドルとなり、前年比22%増となっています。IntelのCEOであるLip-Bu Tan氏は、AIの次の波が基盤モデルから推論、そしてエージェント型AIへ移ることで、CPUや先端パッケージへの需要が大きく増えていると述べています。
Reutersも、Intel株の急騰について、AIデータセンター向けCPU需要の強さが背景にあると報じています。IntelのCFOは、第1四半期には供給がタイトで、想定外に棚上げしていた在庫まで顧客向けに出荷したと説明しています。
ここで重要なのは、Intelの再評価が単なるPC需要の回復ではないことです。
AIデータセンターの構成が変わり、CPUが再び不足し始めていることが、投資家の見方を変えているように見えます。
CPU価格上昇は、AIインフラのボトルネックが広がっている証拠
Tom’s Hardwareは、AIワークロードが学習から推論、特にエージェント型AIへ広がることで、サーバーCPUの需要が急増していると報じています。
同報道では、従来のAIサーバーではGPU 4〜8枚に対してCPU 1基という構成が一般的だった一方、推論やエージェント型AIではCPUとGPUの比率が1対1に近づく可能性があるとされています。
また、同報道では、サーバー向けCPU価格が2026年3月以降に10〜20%上昇し、コンシューマー向けCPUも5〜10%上昇しているとされています。
ここでわかることは、AIインフラの制約は、すでにGPUだけではないことです。
HBMやDRAMの不足、先端パッケージの制約、電力、冷却、土地に加えて、CPUまで価格上昇の対象になり始めています。
つまり、AIインフラ投資は「GPUを何枚確保できるか」という単純な話から、CPU、GPU、メモリ、ネットワーク、ストレージ、電力をまとめて調達・最適化する競争へ移っています。
GoogleとIntelの提携が示す、CPUとIPUの重要性
GoogleとIntelの提携も、この流れを裏付けています。
Intelは2026年4月、Googleとの協業拡大を発表しました。Google CloudのAI、推論、汎用ワークロードにIntel Xeonプロセッサを引き続き採用し、さらにカスタムASICベースのIPU、つまりインフラ処理ユニットの共同開発を拡大するとしています。Intel自身も、この協業について、CPUとIPUが現代の異種混合AIシステムにおいて中心的な役割を持つと説明しています。
ここで注目すべきは、Googleが単にIntelのCPUを買っているわけではないという点です。
GoogleはCPUとIPUを組み合わせて、AI時代のデータセンターをより効率的に動かすためのシステム設計を進めていると考えられます。
ここで、CPU、GPU、IPUの役割について触れておきたいと思います。
CPUは、複雑な条件分岐や順序立てた処理に強い「指揮者」です。AIエージェントがタスクを分解し、外部ツールを呼び出し、次に何をするかを判断するような処理では、CPUの役割が重要になります。
GPUは、大量の行列演算を並列に処理する「エンジン」です。大規模モデルの学習や推論では、引き続きGPUが中心的な役割を果たします。
一方で、IPUは計算そのものを加速するというより、ネットワーク、ストレージ、セキュリティ、仮想化といったインフラ処理を肩代わりする存在です。
つまり、IPUはCPUやGPUと同じ「料理人」ではありません。
むしろ、レストランで言えば、配送、在庫管理、会計、防犯、厨房の整理を担当する運営スタッフに近い存在です。
料理そのものはCPUやGPUが作る。 しかし、店舗運営の雑用まで料理人が抱え込めば、料理の速度も品質も落ちます。
データセンターでも同じことが起きています。
大規模なクラウド環境では、サーバー間通信、ストレージの読み書き、暗号化、認証、仮想マシン管理など、ユーザーの本来の計算とは別の処理が大量に発生します。これらをすべてCPUで処理すると、高価なCPUリソースの一部が「本来の計算」ではなく「インフラの管理」に消えてしまいます。
この負担は、よく「データセンター税」と呼ばれます。
IntelのIPU E2000の説明でも、IPUはクラウド事業者や通信事業者がCPUのオーバーヘッドを減らし、CPU性能を本来の処理に解放するためのものだと説明されています。Googleと共同設計されたIPU E2000は、ネットワーク処理をIPUにオフロードすることで、Xeon CPUを顧客ワークロードに集中させる設計になっています。
この文脈で見ると、GoogleがIntelとIPUを共同開発する理由はかなり明確です。
推論時代、特にAIエージェントの時代には、単にGPUを大量に並べるだけでは不十分です。AIエージェントは、一度の大きな計算だけで完結しません。細かなリクエストを多数発生させ、外部ツールと通信し、データを読み書きし、権限を確認し、結果を再び次の推論につなげます。
この処理では、GPUによる演算性能だけでなく、CPU、ネットワーク、ストレージ、セキュリティを含めたインフラ全体の効率が重要になります。
IPUは、この中でCPUを解放する役割を持ちます。
CPUがネットワークやストレージ管理に追われるのではなく、AIエージェントの制御やタスク管理に集中できるようにします。そのための補助線として、IPUが重要になっているのです。
Googleにとっては、これはクラウド全体の効率を高める手段です。IPUにインフラ処理を逃がせば、仮想マシンや推論環境の性能を高めやすくなります。より少ないCPUリソースで、より多くの顧客ワークロードを処理できる可能性があります。
Intelにとっては、Xeonを単なるCPU部品として売るのではなく、IPUと組み合わせたAIインフラの基盤として位置づける意味があります。これは、GPU一辺倒だったAIインフラの議論に対して、Intelが「CPUとIPUを含むバランスの取れたシステム」という別の軸を提示しているとも言えます。
なぜGoogleは今、Intelと組むのか
なぜGoogleがIntelと深く組むのか、という点について考察したいと思います。
GoogleはTPUを自社開発しており、Armベースの独自CPUであるAxionも持っています。AIインフラを自社で設計する能力は、世界でも最も高い企業の一つです。
それでもGoogleがIntelと組む理由は、単なるCPU調達ではなく、既存インフラとの連続性、カスタムIPUの共同開発、そしてシステム統合にあると見ています。
第一に、Google Cloudのインフラには長年Intel Xeonが使われてきました。
既存のXeonベースの環境をすべて一気に置き換えるのは、技術的にも運用上もリスクが大きいと考えられます。
AIインフラでは性能だけでなく、安定性、互換性、運用実績も重要です。
そのため、既存のXeon環境を活かしながら、IPUによってインフラ処理だけを切り出す設計は、かなり現実的です。
第二に、GoogleとIntelのIPU協業は新しい話ではありません。
GoogleとIntelは、2021年にMount Evansと呼ばれるIPUで協業を始めています。IPUは、CPUからインフラ処理をオフロードし、サーバーCPUのサイクルを顧客ワークロードに振り向けるためのものです。
つまり、今回の提携は突然の方向転換ではありません。
Googleが長年進めてきたインフラ高速化の延長線上にあるものです。
第三に、IntelにはCPU、IPU、ネットワーク、先端パッケージを含めたシステム統合の蓄積があります。
Googleは設計力を持っていますが、データセンター全体で安定して動くインフラ部品を量産し、既存のXeon環境と統合し、クラウドの実運用に耐える形にするには、Intelの経験を使う合理性があります。
ここで重要なのは、GoogleがIntelに依存しているというより、用途ごとにパートナーを分散しているという見方です。
GoogleはTPUを自社で持ち、Marvellとも推論向けチップ開発で協議していると報じられています。一方で、IntelとはXeonとIPUを軸に、インフラの根幹に近い部分を共同開発しています。
これは、ハイパースケーラーらしい生存戦略です。
特定のベンダーにすべてを任せるのではなく、GPU、TPU、CPU、IPU、ASIC、ネットワーク、メモリ周辺を用途ごとに分散し、最終的には自社のデータセンター全体として最適化します。
この意味で、GoogleとIntelの提携は、Intel CPUの復権という単純な話ではありません。
むしろ、推論時代のAIインフラが、単体チップの性能競争から、システム・アーキテクチャ全体の最適化競争へ移っていることを示していると思います。
SiFiveとRISC-Vの台頭
もう一つ注目したいのが、SiFiveです。
Reutersによると、RISC-Vベースの半導体設計企業であるSiFiveは、Nvidia、Atreides、Apollo、Point72、T. Rowe Priceなどから4億ドルを調達し、企業価値は36.5億ドルになりました。SiFiveは、データセンター向けCPU開発を進める方針です。
これは、CPU市場がIntelとAMDだけの話ではなくなっていることを示しています。
RISC-Vはオープン標準の命令セットであり、Armやx86に比べてカスタマイズの自由度が高いとされています。AIデータセンターでは、クラウド事業者や半導体企業が、自社ワークロードに合わせてチップを最適化したいという需要を強めています。
この流れの中で、SiFiveのような中立的なCPU IP企業の価値が高まっているように見えます。
特に興味深いのは、SiFiveの出資者にNvidiaが含まれていることです。NvidiaはGPU企業として見られがちですが、実際にはGPUだけでなく、CPU、ネットワーク、ラック、ソフトウェアまで含めてAIファクトリー全体を設計しようとしています。
この文脈で見ると、NvidiaがRISC-V CPU IPに関心を持つことは自然です。
- GPUの周辺に、どのようなCPUを置くのか。
- どのようにGPU、CPU、メモリ、ネットワークを接続するのか。
- どの部分を自社で持ち、どの部分をパートナーに任せるのか。
AIインフラの競争軸は、すでにチップ単体からシステム全体へ移っています。
GoogleとMarvellの動きも、推論時代のシステム競争を示している
GoogleがMarvellとAIチップ開発で協議しているという報道も、この流れに沿っています。
Reutersは、The Informationの報道として、GoogleがMarvellと2種類のAIチップ開発について協議していると伝えています。一つはGoogleのTPUと組み合わせるメモリ処理ユニット、もう一つはAIモデルをより効率的に動かすための新しいTPUです。
これは、推論時代の競争が単純な「GPU対TPU」ではないことを示しています。
AIモデルを効率的に動かすには、演算性能だけでなく、メモリの近さ、データ移動、ネットワーク、ソフトウェアスタックまで含めた最適化が必要です。
GoogleはTPUを持っていますが、それでもMarvellのようなカスタムシリコン企業と組む可能性が報じられています。
つまり、AIインフラは一社単独で完結するものではなく、複数の専門企業を組み合わせながら、用途別に最適化される方向へ進んでいます。
私見:CPUは「脇役」ではなく、推論時代の主役になるのか
私の見方では、CPUはAIインフラの中で再び重要な位置に戻りつつあります。
ただし、それは昔のようにCPUがすべての計算を担うという意味ではありません。
GPUは引き続き、大規模な行列演算やモデル実行の中心です。 HBMは、GPUの性能を引き出すための重要なメモリです。 ネットワークは、分散された計算資源をつなぐ基盤です。 IPUやDPUは、インフラ処理をオフロードする役割を持ちます。
その中でCPUは、システム全体を制御し、タスクを分配し、データ移動を管理し、AIエージェントの実行環境を支える「指揮者」のような存在になっていくと思います。
特にAIエージェントでは、単純な一回の推論ではなく、複数ステップの処理が発生します。
- 検索する。
- コードを書く。
- 外部ツールを呼び出す。
- 結果を検証する。
- 必要なら再実行する。
- ユーザーに返す。
このようなワークロードでは、GPUだけを大量に並べても十分ではありません。
むしろ、CPU、メモリ、ネットワーク、ストレージを含めて、どれだけ効率よくシステム全体を動かせるかが重要になります。
その意味で、CPU価格の上昇は一時的な需給逼迫だけではなく、AIインフラの重心が変わり始めたことを示すシグナルだと考えています。
投資家として見るべきポイント
投資家として見る場合、今回の変化はかなり重要です。
これまでAIインフラ投資は、Nvidia、HBM、先端パッケージ、データセンター電力に注目が集まりがちでした。
しかし、推論とAIエージェントの時代になると、見るべき対象は広がります。
- CPUを持つIntel、AMD、Arm。
- クラウド内製CPUを持つAmazon。
- カスタムシリコンに強いMarvellやBroadcom。
- RISC-V CPU IPを持つSiFiveのような企業。
- メモリ、ストレージ、ネットワーク、DPU/IPUを含む周辺インフラ。
これらはすべて、AIエージェントが実際に社会実装されるほど重要性を増していく可能性があります。
これからは、推論を安く、大量に、安定して動かせるシステムを誰が作れるか。
そこに投資テーマが移っていくと思います。
別の見方
もちろん、CPU再評価を過度に単純化するべきではありません。
第一に、GPUの重要性が下がるわけではありません。推論でもGPUは引き続き重要であり、特に大規模モデルや高スループットの推論ではGPUや専用アクセラレータが中心になります。
第二に、CPU価格上昇には短期的な供給制約も含まれます。Intelの工場能力、旧世代ノードの需給、在庫の取り崩しなど、一時的な要因もあります。
第三に、推論向けの専用チップが普及すれば、すべての推論ワークロードでCPU需要が一直線に増えるとは限りません。GoogleのTPU、AWSのTrainium/Inferentia、MarvellやBroadcomのカスタムASIC、Nvidiaの新しいCPU・GPU統合戦略など、競争は複雑です。
そのため、「CPUだけが次の主役になる」と見るのは危険です。
より正確には、AIインフラの価値が、GPU単体から、CPU、GPU、メモリ、ネットワーク、ストレージを含むシステム全体へ広がっている、という見方が自然だと思います。
まとめ
AIインフラの主戦場は、学習用GPUをどれだけ確保できるかという段階から、推論とAIエージェントをどれだけ効率よく、大量に、安定して動かせるかという段階へ移りつつあります。
その変化の中で、CPUは再び重要な意味を持ち始めています。
AIエージェントが複雑なタスクを実行する時代において、CPUはシステム全体を制御する指揮者となります。
Intelのデータセンター向けCPU需要、MetaによるAWS Graviton採用、GoogleとIntelのCPU/IPU協業、SiFiveのRISC-V資金調達、GoogleとMarvellの推論チップ協議など、これらはすべて、AIインフラ投資の論点がGPU一極集中から、システム全体の最適化へ広がっていることを示しています。
「推論時代」への移行とは、GPUの時代が終わるという意味ではありません。
むしろ、GPUだけではAIインフラを語れない時代が始まった、ということだと思います。
この記事についてのLinkedIn投稿でコメントや意見を共有できます。
LinkedInで議論する