GPUの傍らで深化する「メモリ争奪戦」──コモディティからAIインフラの「生命線」へと進化したメモリの重要性
![]()
AIインフラを語るとき、どうしても主役はNvidiaになりがちです。
Nvidiaは依然としてAI時代の中心企業であり、FY2026の売上は2,159億ドル、前年比65%増、GAAP粗利率71.1%であり、唯一無二の企業と言えるからです。
しかし、AIインフラが実際に動く現場で起きていることを見ると、GPUだけでなく、その周辺を支える部品もまた重要度を増してきています。
いま本当にボトルネック化し、同時に再評価されつつあるのは、HBM(High Bandwidth Memory、GPUに直結して大量のデータを高速にやり取りするためのメモリ)、DRAM、NANDを含むメモリ階層全体といえます。
私は、メモリ産業の前途はかなり明るいと見ています。理由は6つあります。
第一に、主要メモリ企業の成長率と収益性は、もはや「昔の薄利多売のメモリ企業」とは別物になっていること。
第二に、長期契約化によって、メモリ産業の「景気敏感さ」そのものが薄まりつつあること。
第三に、Googleが発表したKV cache圧縮技術「TurboQuant」の騒動やCXLを、メモリ需要破壊として読むのは技術的にかなり雑だということ。
第四に、HBMだけでなくDRAMやNANDまで、AIインフラの一部として需給が連鎖していること。
第五に、実際の価格データと契約慣行が、すでに「価格より確保」の局面に入っていること。
第六に、新規供給能力の立ち上がりが遅く、中期では依然としてメモリの戦略価値が高いことです。
以下、順を追って論じていきたいと思います。
1. 主要メモリ企業は、すでに「昔のメモリ企業」ではない
まずメモリ主要企業の業績についてです。
SK hynixは2025年通期で売上97.1467兆ウォン、営業利益47.2063兆ウォン、純利益42.9479兆ウォンを記録し、営業利益率は49%、純利益率は44%に達しました(The Korea Times)。
Micronも2025年度の売上が374億ドルと前年比約50%増となり、2026年度2Qには売上238.6億ドル、GAAP EPS 12.07ドル、非GAAP EPS 12.20ドルを記録しています(Micron決算資料)。
Samsungも2026年1Qの暫定見通しで、売上133兆ウォン、営業利益57.2兆ウォンという、前年同期比で営業利益8倍超の数字を示しました(Reuters)。
これは、少なくとも利益構造の面では、メモリ産業がすでに旧来の「低収益セクター」を脱しつつあることを示しています。
The Informationでは、2026年の売上成長率見通しとして、SK hynixが159%、Micronが191%、Nvidiaが71%と整理されていました。
つまり、単年の売上成長率という意味では、すでにメモリ企業がNvidiaを凌駕する局面に入っているということです。また同記事では、SK hynixの粗利率60%、営業利益率49%も示されており、一部の収益性指標ではすでにNvidia級に近いという見方ができます。
これを単なる一時的なトレンドであると考えないことが重要だと思います。
従来のメモリ企業は、PCやスマートフォンの販売サイクルに左右される典型的な景気敏感株でした。
需要が弱れば価格は崩れ、供給が増えれば利益も急速に縮むため、投資家はメモリ企業に高い評価を与えづらく、リスク要因を持つものとして捉えられがちでした。
しかし現在は、AIクラスタ全体の性能と供給を左右する中核資産になりつつあります。
需要の中心はPCやスマホではなく、数年単位でAIインフラを拡張するビッグテックに移っています。しかもHBMや高性能DRAMは、単なる容量商品ではなく、帯域、消費電力、先端実装、歩留まりまで含めた高付加価値領域へ変わっています。
つまり、いまのメモリ企業を昔と同じ「景気敏感なコモディティ企業」として見るのは、現実の構造変化を見落としている可能性が高いのです。
2. 長期契約化が、メモリ産業の”季節性”を変え始めている
先ほども触れたように、現在のメモリ市況は単なる一時的な好況ではないと考えています。
従来、メモリ株が低く評価されてきた理由は明確でした。PCやスマホ向け需要に依存し、需要が弱れば価格が崩れ、供給が増えれば利益が減少するという「景気敏感の代表」でした。
しかし、今はその前提が崩れつつあります。Reutersによると、Samsungは主要顧客との契約を従来の1年単位から3〜5年の複数年契約へ移す方針を示しています。
Micronも2026年3月、初の5年SCA(Strategic Customer Agreement)を公表しました。TrendForceも、SamsungとSK hynixがビッグテック向け契約を年次契約から3〜5年LTAへ再設計していると伝えています。Micronの5年SCA公表についても同社の決算リリースで確認できます。
ここで重要なのは、メモリが「その場で安い方を買う部材」ではなく、数年先まで席を押さえるべき戦略資産に変わりつつあることです。
しかも、この動きの背景にあるのは単なるスポット市場の話ではありません。
AIチップのロードマップ、データセンターの建設計画、そしてクラウドの収益計画そのものが、メモリ確保と結びついているのです。
今のメモリは、景気に左右されるだけの補助部材ではなく、AIインフラの供給ボトルネックそのものになっているといえます。
3. Googleの「TurboQuant」は、メモリ需要破壊ではなく「メモリ階層の効率化」に近い
ここで、最近の懸念材料として取り上げられたTurboQuantに触れます。
Google Researchは2026年3月、TurboQuantを、LLMのKV cacheを少なくとも約6倍圧縮し、H100上でattentionを最大8倍高速化できる技術として紹介しました。
市場はこれを見て、「AIに必要なメモリが6分の1になるなら、メモリ企業には逆風ではないか」と受け止め、Samsung Electronics、SK hynix、Micronなど主要メモリ関連銘柄の株価は急落しました。
ただ、この反応はやや短絡的だった可能性があります。
経済学ではよくJevonsのパラドックスとして知られる現象ですが、ある資源の利用効率が上がると、その資源の総消費がむしろ増えることがあります。
KV cache圧縮で長文脈処理のコストが下がれば、企業は「ではもっと長いコンテキストを使おう」「同時接続数を増やそう」「エージェントを複数動かそう」と考えやすくなります。
つまり、1回あたりの必要量が下がっても、データセンター全体の利用量はむしろ増える可能性があります。
以下、もう少し詳しく理由を述べてみたいと思います。
圧縮するのはモデル全体ではなく、メモリの一部にすぎない
TurboQuantが主に圧縮するのはモデル重みそのものではなく、推論時に伸び続けるKV cacheだという点です。
つまり、「AIに必要なメモリ全体が6分の1になる」という話ではありません。
たとえば本棚に例えるなら、本そのものを減らすのではなく、机の上に広げているメモや付箋を整理して省スペース化するようなものです。本棚そのものの価値がなくなるわけではありません。
容量削減と帯域需要は別の話
次に重要なのは、容量削減と帯域需要は別物だということです。
たしかにKV cacheが軽くなれば、必要なメモリ容量の一部は減るかもしれません。ですが、AIシステムでは「どれだけ容量を持つか」だけでなく、「どれだけ速く読み書きできるか」も同じくらい重要です。
たとえば、倉庫の面積が広くても、荷物の出し入れが遅ければ物流は回りません。HBMの価値は、単なる容量ではなく、この “高速でさばける” 部分にあります。だから、圧縮が進んでもHBMや先端実装の価値がすぐに消えるわけではありません。
NVIDIAはRubin世代で、CPU-GPU間のcoherent memory systemや高帯域設計を強く打ち出しており、AIシステムの価値が単なる容量ではなく、帯域とシステム統合に依存していることを示しています。したがって、KV cache圧縮が進んでも、HBMや先端実装の価値がそのまま消えるわけではありません(NVIDIA Developer Blog)。
推論最適化と学習需要は別市場
さらに、推論最適化と学習需要は別です。
TurboQuantが主に効くのは、あくまで推論時のメモリ効率です。しかしAIサーバー全体で見ると、HBM需要の大きな部分は、学習、後学習、巨大モデルの並列化、GPU間通信などにも支えられています。
つまり、チャット応答を少し効率化できたからといって、AIデータセンター全体のメモリ需要がそのまま減るわけではありません。
TurboQuantそのものが、ただちに業界標準になることは別
KV圧縮にはすでに複数の方式があり、ハードウェア対応、カーネル、精度劣化、既存スタックとの互換性で競争があります。
Googleの今回の論文1本でメモリ需要全体が即座に崩れる、と読むのもまた早計です。
HBMの懸念と、DRAM・NANDまで一括で売られたことは別
最後に、今回のニュースでどのメモリが本当に影響を受けやすいのかは、分けて考えたほうがよいと思います。
今回市場が真っ先に連想したのはHBMです。HBMは、LLMの学習や推論で必要な大量のデータを、GPUのすぐ近くで高帯域に処理するためのメモリであり、とくに長いコンテキストを扱う推論では、KV cacheの膨張を支える重要な役割を担っています。GoogleのTurboQuantは、まさにこのKV cacheを大幅に圧縮する技術として登場したため、「HBMの必要量が減るのではないか」と市場が考えたのは理解できます。
ただし、それとDRAMやNANDまで一括で売られるのは別の話です。TurboQuantが直接圧縮しているのは、あくまでLLM推論時のKV cacheです。一般的なDRAM需要や、ましてやNANDやストレージ需要にまで、同じ程度の影響が及ぶわけではありません。実際、3月の売りではSamsungやSK hynixだけでなく、Micron、Western Digital、SanDiskまで広く下落しましたが、市場では「メモリ株全体」をまとめて売るような反応が起きていました(Bloomberg、Taipei Times)。
つまり、今回のニュースはHBMには一定の影響がありますが、DRAMもNANDも同じように逆風だとまでは言いにくいと思います。
4. CXLは、HBMのまわりにDRAM需要を広げる
ここでCXLにも少し触れておきたいと思います。
CXLとは、CPU、GPU、メモリ、アクセラレータなどを高速かつ一貫性を保ちながら接続し、必要に応じてメモリを共有・拡張しやすくする仕組みです。
要するに、GPUの近くにある超高速メモリだけでなく、その外側にあるDRAMなども含めて、AIが使えるメモリ全体を大きくする技術と考えるとわかりやすいと思います。
ここで重要なのは、CXLがHBMを不要にする方向の技術ではないということです。
むしろ逆で、HBMを中心に置いたまま、その周辺にDRAMなどを接続して、AIシステム全体で扱えるメモリ量を増やす方向の技術です。
NVIDIA Rubinでも、HBM4に加えてLPDDR5Xやcoherent memoryの活用が打ち出されており、AIシステムは一種類のメモリだけで完結するのではなく、複数の階層を組み合わせる方向へ進んでいます(NVIDIA Developer Blog)。
つまり、ここで起きているのはHBMに加えて、その周辺でDRAMや外部メモリの役割も広がっていくという動きだと思います。
AIがより長いコンテキストを扱い、より多くの同時接続を支え、複数のモデルやエージェントを動かすようになれば、GPU直結の超高速領域だけでは足りません。その外側を支えるDRAMや、さらにその先のストレージも含めて、メモリ階層全体の重要性が増していきます。
そう考えると、CXLの流れはメモリ需要の縮小ではなく、HBMを頂点としてDRAMや周辺メモリまで含めた総需要の拡大として見るほうが自然です。
今回のテーマで言えば、これは「メモリの一部が不要になる話」ではなく、「AI時代にはメモリ階層全体の重要性がさらに増していく話」だと思います。
5. 現実の市場では、HBMだけでなくDRAM・NANDまで争奪戦に入っている
さらにDRAM需要だけでなくNANDの需要も増してきています。
TrendForceは、2026年1Qのconventional DRAM契約価格が前期比90〜95%上昇したとし、さらに2Qも58〜63%上昇、NAND Flash契約価格も2Qに70〜75%上昇すると見ています。
しかもDRAM各社は高収益のサーバー向け・HBM向けへ能力配分を寄せており、そのしわ寄せがPC・民生向けだけでなく、企業向けストレージ市場にも広がっています。
要するに、需給ひっ迫はHBMの一点ではなく、すでにメモリ階層全体へ波及しています(Reuters)。
Samsungの2026年1Q営業利益見通し57.2兆ウォンも、この構造の結果です。Reutersはその背景として、AIデータセンター向け需要によるDRAM価格上昇と供給逼迫を挙げています。
SK hynixについても、Samsungの強気見通しを受けて4月8日に株価が15%急騰し、証券会社は2026年通期営業利益見通しを216兆ウォンまで引き上げました(Reuters)。
これは、「HBMだけは強いが、それ以外は普通」という世界ではありません。AIの波は、DRAMやNANDを含むメモリ全体へ浸透しているのです。
6. 供給能力の立ち上がりは遅く、2027〜2028年まで戦略価値は続く
最後に、供給です。ここが投資家にとっては最も重要かもしれません。
Reutersは、AIブームが新たなメモリ供給危機を生み出しており、SK hynixはHBM不足が少なくとも2027年後半まで続くと見ている、と報じました。
ここに、長期契約化が重なります。つまり、今のメモリ産業は、
需要はAIで強く、契約は長くなり、供給の拡大は遅い
という、過去の「短いサイクル産業」よりはるかに長期的に利益を生み出すサイクルに入っていると思います。
価格だけでなく、契約と供給の時差が利益を支えるようになっているからです。
結論
私がメモリ産業を強気で見るのは、単にAIブームの恩恵を一時的に受けているからではありません。
主要メモリ企業の成長率と利益率は、すでにかつてのメモリ企業の水準を大きく超えています。さらに、長期契約化が進むことで、従来の短い市況サイクルでは捉えきれない構造変化が起きています。TurboQuantショックやCXLの流れも、需要破壊というよりは、メモリ階層の効率化と総利用量の拡大として捉えるほうが自然です。そして現実の需給を見れば、逼迫はHBMだけでなくDRAMやNANDにまで広がっており、供給の拡大にはなお時間がかかります。
つまり今のメモリ産業は、過去のような「景気に振られる部材産業」という見方だけでは捉えきれません。AIインフラを支える中核レイヤーとして、すでに別の局面に入りつつあるのだと思います。
だから私は、NvidiaをはじめとするAI半導体の次に来る有力候補の一つが、メモリ産業だと考えています。
GPUの隣にあるこの層は、単なる補助部材ではありません。
次の時代に再評価されるのは、GPUそのものだけではなく、その性能を支える周辺レイヤーです。
メモリ産業は、その中心にいる有力候補だと思います。
この記事についてのLinkedIn投稿でコメントや意見を共有できます。
LinkedInで議論する