AWSとGoogleが示す新たな商機ーAI時代に進む「オンプレ再評価」と物理ラックの外販
![]()
最近のAIインフラをめぐるハイパースケーラーやデータセンター企業の動きを見ていると、クラウドビジネスの中から、これまでとは少し違う新たな商機が生まれつつあるように感じます。
クラウドサービスの大きな利点は、CPUやGPU、ストレージといった計算資源を、必要なときに必要な分だけ利用できることにあります。
ユーザーはラックや配線、冷却を意識することなく、必要な分だけ計算能力を借りることができます。
そこがオンプレミスとの大きな違いであり、長らくクラウドの中心的な強みとして機能してきました。
ただ、AIの時代に入り、この前提は少しずつ変わり始めています。計算需要が急増し、しかも電力、冷却、土地、チップ供給といった物理制約が強まるなかで、いま価値を持ち始めているのは、抽象化されたクラウドサービスだけではなく、AI向けに最適化された物理インフラそのものです。
その延長線上にあるのが、ハイパースケーラーによる「自社チップを含んだ、AI向け最適化ラックの外販」という新しいビジネスモデルなのかもしれません。 それは単純なオンプレ回帰というより、クラウドで培った設計思想を、顧客側の物理空間へ持ち込む動きとして捉えると面白いと思います。
深刻なAI計算資源の不足
この数か月を見ても、MetaやAnthropicのような大手AIプレイヤーが、既存クラウドだけでなく、CoreWeaveやNebiusのようなAIインフラ専業企業と大型契約を次々に結んでいます。
Metaは2026年4月にCoreWeaveとの契約をさらに210億ドル拡大し、Nebiusとも最大270億ドル規模の契約を結びました。
AnthropicもCoreWeaveとのマルチイヤー契約を発表しており、最先端AI企業が計算能力の確保を急いでいることがわかります。
ここで重要なのは、十分な物理キャパシティを確保するのが難しい現実を示していることです。
GPUだけでなく、電力、冷却、建屋、ネットワークまで含めて供給できる事業者の価値が高まっています。
AWSは、チップ外販とラック販売の可能性を示唆
AmazonのAndy Jassy CEOは2025年の株主向けレターで、Amazonのチップ事業(Graviton、Trainium、Nitroを含む)の年換算売上ランレートが200億ドル超に達していると説明しました。
そのうえで、もしこの事業がAWS内部利用にとどまらず、より広く第三者向けに展開されていれば、約500億ドル規模になっていた可能性があると述べています。
さらに、需要が非常に強いことから、将来的にはそれらのチップを搭載したラックを第三者に販売する可能性にも言及しています。
これはかなり重要だと思います。 なぜなら、Amazon自身が、クラウドの中で使わせるだけでなく、物理インフラとして外販する余地があることを認めているからです。
Googleも、TPUの外部貸し出しと顧客DC向け販売の可能性
Googleについても、方向性はかなり似ています。Reutersは、MetaがGoogleのTPUを借りる複数年・数十億ドル規模の契約を締結したと報じています。さらに同報道では、MetaとGoogleが、2027年以降にMetaの自社データセンター向けにTPUを購入する可能性についても協議しているとされています。
つまりGoogleも、TPUをGoogle Cloudの中だけで消費するのではなく、外部顧客に貸し出し、将来的には顧客の物理DCにまで持ち込む可能性を示しているわけです。
ここまで来ると、ハイパースケーラーの競争軸は、単なるクラウド利用料ではなく、自社アーキテクチャをどこまで外部の物理世界に広げられるかに移りつつあるように見えます。
なぜ「チップ単体」ではなく「ラック」なのか?
ここで一つ、技術的な疑問が浮かびます。「なぜチップ単体の販売ではなく、ラック単位なのか?」という点です。
TrainiumやInferentiaといったAIチップは、IntelのCPUを汎用のマザーボードに挿すような感覚では扱えません。物理ラック単位での販売になるのには、主に3つの重要なポイントを押さえる必要があります。
① 独自の高速インターコネクト(EFA)
Trainiumは単体ではなく「数千個のクラスター」で協調して動かすことを前提に設計されています。Amazon独自の高速通信技術(EFA: Elastic Fabric Adapter)やチップ間の超高速相互接続網が必要なため、他社製の汎用シャーシではその真価を発揮できません。
② 電源と冷却の垂直統合
最新のAIチップは極めて高密度で、消費電力と発熱も甚大です。AWSが自社のデータセンターで培った液冷システムや専用の電源供給ユニットが組み込まれた「ラック」そのものでないと、物理的に安定稼働させることすら困難なのが実情です。
③ ソフトウェアスタック(Neuron SDK)との密結合
ハードウェアとそれを制御するドライバ・コンパイラが完全に一体化しているため、ハードだけ渡されても顧客は開発に苦慮します。NVIDIAがGPUだけでなく「DGX」というサーバーシステムとして販売しているのと全く同じロジックです。
Amazonの外販戦略における3つの差別化ポイント
Amazonがハードウェアベンダーとして市場に参入した際、既存のチップメーカーに対してどのような優位性を持てるのでしょうか。
1. AIに最適化された「運用ノウハウ」の結晶: Amazonのラックは、単なるスペックの羅列ではなく、世界最大のクラウドを支えてきた「故障しにくさ」「管理のしやすさ」といった、現場の知恵が詰まったパッケージです。
2. 圧倒的な利益率とコスト競争力: 自社設計のTrainiumなどは、他社のように「NVIDIA税」を支払う必要がありません。IP(知的財産)を内製化しているため、外販において他社が追随できないレベルの利益率を確保しつつ、顧客には競争力のある価格を提示できます。
3. 人的サポートとライフサイクル管理: 「売って終わり」ではなく、AWSとして長年培ってきた大規模インフラの保守・運用の人的ノウハウもパッケージ化して提供できる強みがあります。
クラウドは「見えない計算資源」から「完成済みのAI工場」へ近づいている
これらの動きから見えるのが、AIインフラの価値の中心が、抽象化された仮想リソースから、最適化済みの物理パッケージへ移る可能性があるということです。
従来のクラウドは、AIに最適化された計算資源を利用できることで価値を作ってきました。
ですがAIでは、チップ、メモリ、ネットワーク、電力密度、冷却、ソフトウェアスタックまで含めた全体最適の差が、そのまま性能差やコスト差になります。
そうなると、顧客が欲しいのは、すぐに動く、AIに最適化された、完成済みの物理環境です。
その意味で、ハイパースケーラーが外販しうるのは単なるラックではありません。 チップ、サーバー、ネットワーク、運用ソフト、供給力、設計思想まで含めた小さいAI工場そのものも可能性として出てきます。
なぜ物理ラックの外販が大きな商機になりうるのか
私がここに強い伸びしろを感じる理由は、ハイパースケーラーがすでに自社向けに巨大な最適化を終えているからです。
チップを設計し、サーバーを作り、ネットワークを組み、冷却や電力設計まで含めて調整してきました。その成果物を自社内部やクラウドとして計算資源をレンタルするだけではなく、外部顧客向けにそのまま商品化できるのであれば、それはかなり強いビジネスになります。
顧客から見れば、自前でAIインフラをゼロから設計して調達するより、ハイパースケーラー純正のラックを導入した方が早いです。
しかも、単なる部品の寄せ集めではなく、実運用で鍛えられた構成が最初から入っています。時間の節約効果も大きく、失敗コストも下げやすいはずです。
そして売り手から見ると、これは単なる追加商品ではありません。 今までクラウド利用料として長期回収していた価値を、物理インフラ販売として前倒しで顕在化できる可能性があります。
利益のシミュレーション:外販がもたらすインパクト
ここは投資家目線では重要なので、あえて単純化して考えてみます。 ただし、以下はあくまで私の試算であり、会社計画ではありません。物流費、サポート費、販管費、保守費、歩留まり、値引き、稼働率、税効果、会計処理の違いなどは考慮していない、かなり粗い推計です。
また、この試算が「AWSの既存クラウド供給をそのまま外販に振り向ける」ことを前提にしていない点です。 仮にラックを丸ごと外販しすぎれば、当然ながら自社クラウドの供給余力を削り、AWS本来の成長を傷つける可能性があります。
したがって、ここでいう外販余地は、追加の物理供給力が確保できた場合、あるいは外部販売向けに別枠の供給を持てた場合に初めて成立することを想定しています。
Amazonの説明では、現在のチップ事業の年換算売上は200億ドル超、一方で外部販売まで含めれば約500億ドル規模の可能性があるという話でした。ここから単純に考えると、追加売上余地は以下です。
ΔRevenue = 500億ドル − 200億ドル = 300億ドル
この300億ドルは、AWS内部利用だけに閉じていた価値を、外販という別ルートで一部顕在化できた場合の潜在売上余地として見ることができます。 ただしこれは、十分な追加設備・追加電力・追加製造能力が前提であり、既存クラウド事業との食い合いを無視したものではない、という点は明確にしておく必要があります。
ここで、仮にラック外販ビジネスの粗利益率を60%と置くと、追加粗利益のイメージはこうなります。
Incremental Gross Profit = 300億ドル × 0.60 = 180億ドル
逆に、もう少し保守的に見て粗利益率50%なら、
300億ドル × 0.50 = 150億ドル
粗利益率40%でも、
300億ドル × 0.40 = 120億ドル
となります。
つまり、かなり単純化しても、追加売上300億ドルに対して、追加粗利益は120億〜180億ドル規模という絵が見えてきます。これは投資家の目線で見ると、大きな数字にみえます。
そして、私がここで面白いと思うのは、これが単なる「ハードを売る話」に見えて、実際にはそうではないことです。 AWSがもしラック外販に踏み込むなら、売るのは鉄の箱ではなく、TrainiumやGravitonを中心とした自社アーキテクチャごと売ることになります。
つまり、売上だけでなく、ソフトウェア、SDK、運用思想、将来の更新需要まで含めた長い収益機会につながる可能性があります。
懸念点
ここも冷静に見ておく必要があります。
第一に、顧客は特定アーキテクチャへの依存を強めることになります。AmazonならNeuron、GoogleならTPU向けスタックへの依存が深くなる可能性があります。
これは便利さと引き換えに、柔軟性を失う面もあります。
第二に、ハードウェアは陳腐化します。特に技術の進展の速いAIに最適化されたハードウェアは減価償却も早くなるでしょう。
クラウドなら更新で逃げやすいですが、買い取ったラックは資産になります。世代交代の速いAI市場では、ここは無視できません。
第三に、保守や導入、交換、障害対応まで含めると、クラウド提供とは別のオペレーション能力が必要になります。
外販が本格化するなら、ハイパースケーラーは「サービス会社」であるだけでなく、「大規模インフラメーカー」としての筋肉もさらに求められるはずです。
結論
私は、AI時代のハイパースケーラーには、計算資源のレンタルだけでなく、自社チップ込みの物理ラック外販という新しい商機がかなり大きく広がっていると見ています。
その理由は、AIの需要が大きくなるほど、価値の源泉が単なるクラウド利用権ではなく、最適化済みの物理インフラを短期間で供給できる能力へ近づいていくからです。
そして、その力を最も強く持っているのがハイパースケーラーです。 彼らは単なるソフトウェア企業ではありません。土地、電力、冷却、チップ、サーバー、ネットワーク、物流、運用まで束ねられる、物理的資産とノウハウを持つ企業です。
言い換えると、物理で勝負できる巨大テックです。
ここで興味深いのは、この流れが単純な「クラウド拡大」の延長ではなく、ある意味ではAI時代におけるオンプレ再評価のようにも見えることです。 もちろん、昔ながらのオンプレ回帰がそのまま起きるわけではありません。ですが、AIでは性能・電力・冷却・ネットワーク最適化の重要性が高いため、クラウドの思想で設計された完成済みの物理ラックを、自社データセンター側に置く価値が高まりつつあります。
その意味では、これからのオンプレは、従来の「自前で全部組むオンプレ」ではなく、ハイパースケーラーが設計したインフラを顧客側の物理空間に持ち込む、新しい形のオンプレとして再評価されていくのかもしれません。
Amazonが示した数字は、そうした物理的優位を外に出したとき、売上や利益の伸びしろが想像以上に大きい可能性を示しています。
しかもGoogleまで、TPUを外部へ貸し出し、将来的には顧客のデータセンター向け販売まで視野に入れているとなれば、ハイパースケーラー全体の次のビジネスモデル候補として見る価値があります。
AI時代のインフラは、クラウドかオンプレかを二者択一で選ぶ時代ではなく、ハイパースケーラーが設計した計算基盤が、顧客の物理空間へまで広がっていく時代に入るのかもしれません。
この記事についてのLinkedIn投稿でコメントや意見を共有できます。
LinkedInで議論する