Research
Research

by nicoxz

Google新技術で揺れたメモリー株、需要6分の1説の真相を解説

by nicoxz
URLをコピーしました

はじめに

2026年3月26日の米株式市場では、Micronをはじめとするメモリー関連株に売りが広がりました。きっかけは、Google Researchが3月24日に公開した圧縮技術「TurboQuant」です。報道では「AIのメモリー需要が6分の1になる」といった刺激的な見出しが並び、市場心理を冷やしました。

ただし、この見方はかなり雑です。TurboQuantが削減するのは、AIシステム全体のメモリー消費ではなく、主に推論時に使う「KVキャッシュ」の領域です。学術的には重要な前進ですが、それだけでHBM需要全体が6分の1になるわけではありません。本記事では、技術の中身、市場が過剰反応した理由、そして本当に揺らぐ需要と揺らぎにくい需要を分けて解説します。

TurboQuantは何を変える技術なのか

削減対象は「AI全体のメモリー」ではなくKVキャッシュ

Google Researchの説明によると、TurboQuantは大規模言語モデルの推論時に使われるKVキャッシュを極端に圧縮する技術です。KVキャッシュとは、モデルがすでに読んだトークンの情報を保存し、次のトークン生成時に再計算を避ける仕組みです。文脈が長くなるほど膨らみやすく、推論コストのボトルネックになりやすい領域です。

Googleは、この技術によってKVメモリーを少なくとも6分の1に圧縮しつつ、LongBenchやNeedle in a Haystackなどの長文ベンチマークで精度劣化なしを確認したと説明しています。H100 GPU上では、4ビット版で注意計算が最大8倍高速になったとも示しました。学会採択先のOpenReviewでも、KVキャッシュ圧縮とベクトル検索の双方で有効だと整理されています。

ここで大事なのは、削減対象が限定されていることです。AIモデルを支えるメモリー需要には、学習時の重み、活性化、チェックポイント、ストレージ、サーバーDRAM、推論用KVキャッシュなど複数の層があります。TurboQuantが主に効くのは、そのうち推論の一部です。見出しだけで「AI向けメモリー需要が一律で6分の1になる」と読んでしまうと、技術の射程を大きく取り違えます。

それでも市場が驚いたのは「ソフトでハード前提が崩れる」から

では、なぜ株価はここまで反応したのでしょうか。理由は、AIインフラ投資の強気シナリオが「モデルはますます長文化し、メモリー搭載量は増え続ける」という前提に依存していたからです。KVキャッシュが本当に大きく圧縮できるなら、同じGPUでもより長いコンテキストを扱えますし、同じタスクを少ないHBMで回せる可能性も出ます。これは投資家にとって、需要予測モデルの分母を揺らす話です。

さらに心理的な要因もあります。論文自体は以前から公開されていましたが、Googleが研究ブログで分かりやすく再提示したことで、技術が一気に「投資テーマ」として認識されました。

メモリー株の下落はどこまで合理的か

HBMの需要構造はなお強い

株価反応が完全に的外れというわけではありません。AI向けメモリーのうち、推論比率が高い用途では、圧縮アルゴリズムが単位当たりのメモリー需要を押し下げる可能性があります。とくに長文チャット、RAG、エージェント、多段検索のように推論が長く続く用途では、KVキャッシュの比重が高くなりやすいためです。

一方で、HBM市場の土台はなお強いままです。Micronは3月18日の2026年度第2四半期決算で、売上高238.6億ドル、非GAAPベースEPS12.20ドルという過去最高水準を示し、「AI時代にメモリーは戦略資産だ」と強調しました。3月16日にはNVIDIA Rubin向けHBM4の量産も発表しています。SK hynixも1月28日の2025年通期決算で過去最高業績を発表し、HBMなど高付加価値製品が成長を支えたと説明しました。

ここからわかるのは、足元の需給は依然として逼迫していることです。訓練需要、推論需要、サーバーDRAM需要、SSD需要が同時に走っており、メモリー企業は供給増強を続けています。企業の行動を見る限り、彼ら自身は「ソフト改善で需要が一気に蒸発する」とは見ていません。

本当の論点は「必要量の減少」より「価値配分の変化」

むしろ注目すべきは、今後の価値配分が変わる可能性です。もしソフトウェア側の圧縮が進めば、メモリー需要がゼロになるのではなく、より高密度なHBMだけでなく、低コストDRAM、CXL接続メモリー、SSD、ネットワーク最適化の重要性が相対的に上がるかもしれません。つまり市場テーマは「メモリー不要」ではなく、「どの階層のメモリーが儲かるのか」に移ります。

加えて、効率化が需要総量を減らすとは限りません。推論コストが下がれば、企業は長文コンテキストや常時稼働エージェントをより多く導入しやすくなります。経済学でいうジェボンズのパラドックスのように、単位当たり資源使用量が減っても、利用量そのものが増えて総需要が拡大する可能性があります。MarketWatchも、今回の下げはGoogle技術と供給拡大懸念が重なった複合要因だと伝えています。

注意点・展望

「6分の1」の読み方を間違えると投資判断を誤る

今回のニュースで最も注意したいのは、「6分の1」という数字の母数です。Googleが示したのはKVキャッシュの圧縮率であり、AIデータセンター全体のHBM搭載量やメモリー投資総額の削減率ではありません。しかも長文推論で効きやすい一方、学習や重み保存、他のI/Oボトルネックは別の問題として残ります。

また、TurboQuantのような技術はGoogleだけの武器として閉じたままではなく、業界全体に広がる可能性があります。そうなると、単純なハード数量勝負ではなく、ソフトとハードをどう一体最適化するかが企業価値を左右します。

今後の焦点は推論インフラの再設計

今後の焦点は、推論インフラの設計思想がどう変わるかです。長文対応モデルや検索連携型AIが増えるほど、推論効率は重要になります。TurboQuantはその流れを加速させる可能性があります。

したがって、投資家が見るべき指標は単純なメモリービット需要だけではありません。HBMの価格、サーバーDRAMの構成比、推論向けGPUの搭載メモリー構成、SSDやCXLの採用を合わせてみる必要があります。

まとめ

GoogleのTurboQuantは、長文推論で膨らむKVキャッシュを大幅に圧縮できる重要な技術です。その意味で、AIインフラの効率化を前提にしていたメモリー株の評価が揺れたのは理解できます。しかし、「AI向けメモリー需要が6分の1になる」という解釈は明らかに飛躍しています。

現時点では、HBMを中心とするAIメモリー需要は依然として強く、MicronやSK hynixの業績や投資計画もそれを裏付けています。本当に起きているのは需要の消滅ではなく、推論時代に向けた価値配分の組み替えです。市場の短期的な過熱と失望を見分けるには、「どのメモリーが減るのか」を具体的に見る視点が欠かせません。

参考資料:

関連記事

最新ニュース