Google新技術で揺れたメモリー株、需要6分の1説の真相を解説
はじめに
2026年3月26日の米株式市場では、Micronをはじめとするメモリー関連株に売りが広がりました。きっかけは、Google Researchが3月24日に公開した圧縮技術「TurboQuant」です。報道では「AIのメモリー需要が6分の1になる」といった刺激的な見出しが並び、市場心理を冷やしました。
ただし、この見方はかなり雑です。TurboQuantが削減するのは、AIシステム全体のメモリー消費ではなく、主に推論時に使う「KVキャッシュ」の領域です。学術的には重要な前進ですが、それだけでHBM需要全体が6分の1になるわけではありません。本記事では、技術の中身、市場が過剰反応した理由、そして本当に揺らぐ需要と揺らぎにくい需要を分けて解説します。
TurboQuantは何を変える技術なのか
削減対象は「AI全体のメモリー」ではなくKVキャッシュ
Google Researchの説明によると、TurboQuantは大規模言語モデルの推論時に使われるKVキャッシュを極端に圧縮する技術です。KVキャッシュとは、モデルがすでに読んだトークンの情報を保存し、次のトークン生成時に再計算を避ける仕組みです。文脈が長くなるほど膨らみやすく、推論コストのボトルネックになりやすい領域です。
Googleは、この技術によってKVメモリーを少なくとも6分の1に圧縮しつつ、LongBenchやNeedle in a Haystackなどの長文ベンチマークで精度劣化なしを確認したと説明しています。H100 GPU上では、4ビット版で注意計算が最大8倍高速になったとも示しました。学会採択先のOpenReviewでも、KVキャッシュ圧縮とベクトル検索の双方で有効だと整理されています。
ここで大事なのは、削減対象が限定されていることです。AIモデルを支えるメモリー需要には、学習時の重み、活性化、チェックポイント、ストレージ、サーバーDRAM、推論用KVキャッシュなど複数の層があります。TurboQuantが主に効くのは、そのうち推論の一部です。見出しだけで「AI向けメモリー需要が一律で6分の1になる」と読んでしまうと、技術の射程を大きく取り違えます。
それでも市場が驚いたのは「ソフトでハード前提が崩れる」から
では、なぜ株価はここまで反応したのでしょうか。理由は、AIインフラ投資の強気シナリオが「モデルはますます長文化し、メモリー搭載量は増え続ける」という前提に依存していたからです。KVキャッシュが本当に大きく圧縮できるなら、同じGPUでもより長いコンテキストを扱えますし、同じタスクを少ないHBMで回せる可能性も出ます。これは投資家にとって、需要予測モデルの分母を揺らす話です。
さらに心理的な要因もあります。論文自体は以前から公開されていましたが、Googleが研究ブログで分かりやすく再提示したことで、技術が一気に「投資テーマ」として認識されました。
メモリー株の下落はどこまで合理的か
HBMの需要構造はなお強い
株価反応が完全に的外れというわけではありません。AI向けメモリーのうち、推論比率が高い用途では、圧縮アルゴリズムが単位当たりのメモリー需要を押し下げる可能性があります。とくに長文チャット、RAG、エージェント、多段検索のように推論が長く続く用途では、KVキャッシュの比重が高くなりやすいためです。
一方で、HBM市場の土台はなお強いままです。Micronは3月18日の2026年度第2四半期決算で、売上高238.6億ドル、非GAAPベースEPS12.20ドルという過去最高水準を示し、「AI時代にメモリーは戦略資産だ」と強調しました。3月16日にはNVIDIA Rubin向けHBM4の量産も発表しています。SK hynixも1月28日の2025年通期決算で過去最高業績を発表し、HBMなど高付加価値製品が成長を支えたと説明しました。
ここからわかるのは、足元の需給は依然として逼迫していることです。訓練需要、推論需要、サーバーDRAM需要、SSD需要が同時に走っており、メモリー企業は供給増強を続けています。企業の行動を見る限り、彼ら自身は「ソフト改善で需要が一気に蒸発する」とは見ていません。
本当の論点は「必要量の減少」より「価値配分の変化」
むしろ注目すべきは、今後の価値配分が変わる可能性です。もしソフトウェア側の圧縮が進めば、メモリー需要がゼロになるのではなく、より高密度なHBMだけでなく、低コストDRAM、CXL接続メモリー、SSD、ネットワーク最適化の重要性が相対的に上がるかもしれません。つまり市場テーマは「メモリー不要」ではなく、「どの階層のメモリーが儲かるのか」に移ります。
加えて、効率化が需要総量を減らすとは限りません。推論コストが下がれば、企業は長文コンテキストや常時稼働エージェントをより多く導入しやすくなります。経済学でいうジェボンズのパラドックスのように、単位当たり資源使用量が減っても、利用量そのものが増えて総需要が拡大する可能性があります。MarketWatchも、今回の下げはGoogle技術と供給拡大懸念が重なった複合要因だと伝えています。
注意点・展望
「6分の1」の読み方を間違えると投資判断を誤る
今回のニュースで最も注意したいのは、「6分の1」という数字の母数です。Googleが示したのはKVキャッシュの圧縮率であり、AIデータセンター全体のHBM搭載量やメモリー投資総額の削減率ではありません。しかも長文推論で効きやすい一方、学習や重み保存、他のI/Oボトルネックは別の問題として残ります。
また、TurboQuantのような技術はGoogleだけの武器として閉じたままではなく、業界全体に広がる可能性があります。そうなると、単純なハード数量勝負ではなく、ソフトとハードをどう一体最適化するかが企業価値を左右します。
今後の焦点は推論インフラの再設計
今後の焦点は、推論インフラの設計思想がどう変わるかです。長文対応モデルや検索連携型AIが増えるほど、推論効率は重要になります。TurboQuantはその流れを加速させる可能性があります。
したがって、投資家が見るべき指標は単純なメモリービット需要だけではありません。HBMの価格、サーバーDRAMの構成比、推論向けGPUの搭載メモリー構成、SSDやCXLの採用を合わせてみる必要があります。
まとめ
GoogleのTurboQuantは、長文推論で膨らむKVキャッシュを大幅に圧縮できる重要な技術です。その意味で、AIインフラの効率化を前提にしていたメモリー株の評価が揺れたのは理解できます。しかし、「AI向けメモリー需要が6分の1になる」という解釈は明らかに飛躍しています。
現時点では、HBMを中心とするAIメモリー需要は依然として強く、MicronやSK hynixの業績や投資計画もそれを裏付けています。本当に起きているのは需要の消滅ではなく、推論時代に向けた価値配分の組み替えです。市場の短期的な過熱と失望を見分けるには、「どのメモリーが減るのか」を具体的に見る視点が欠かせません。
参考資料:
- TurboQuant: Redefining AI efficiency with extreme compression - Google Research
- TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate - OpenReview
- Google’s TurboQuant reduces AI LLM cache memory capacity requirements by at least six times - Tom’s Hardware
- Micron Technology, Inc. Reports Results for the Second Quarter of Fiscal 2026 - Micron
- Micron in High-Volume Production of HBM4 Designed for NVIDIA Vera Rubin - Micron
- SK hynix Announces FY25 Financial Results - SK hynix Newsroom
- 2026 Market Outlook – Focus on the HBM-Led Memory Supercycle - SK hynix Newsroom
- SK Hynix Commits Additional USD 15 Billion, Escalating Fab Expansion Race among Memory Giants - TrendForce
- Micron Stock Slumps After Google Unveils New Technology - WSJ
- Micron’s stock is dropping. Is Google partly to blame? - MarketWatch
関連記事
TOTOの半導体部材が利益を稼ぐ理由と英ファンド要求の核心とは
TOTOは衛生陶器メーカーの印象が強い一方、半導体製造装置向けセラミックスが利益成長の牽引役になっています。英アクティビストの要求内容、AI投資との接点、成長余地とリスクを整理します。
2026年半導体市場はメモリー争奪戦——サムスン最高益の裏で広がる影
生成AI需要でHBMが逼迫、サムスンは過去最高益を更新。しかしPC・スマホ向けメモリー不足が深刻化し、2026年は価格高騰とスペックダウンの「暗黒期」に。半導体市場の二極化を解説します。
GoogleのTPU戦略がNVIDIA牙城を崩す可能性
Googleが自社製TPU+クラウド+サービスで「垂直統合」戦略を進め、NVIDIA中心のAIインフラ構造に挑む理由とその強みを解説します。
メタとGoogleに下った依存判決が変えるSNS規制の争点地図
米ロサンゼルスの陪審がMetaとGoogleに未成年のSNS依存を招いた責任を認定しました。アルゴリズム設計が法的責任を問われた意味と、今後の規制論点をわかりやすく整理します。
メタとGoogle敗訴、SNS依存訴訟で歴史的判決
米カリフォルニア州の陪審がメタとGoogleに計600万ドルの賠償を命じました。SNS企業の「法の盾」が通用しなかった画期的判決の内容と、テック業界への影響を解説します。
最新ニュース
AIエージェントが人を雇う時代、犯罪と倫理リスクの現在地を読む
自律型AIエージェントが現実の作業を人に発注するサービスまで登場しました。利便性の裏で拡大する犯罪悪用、責任の所在、労務倫理の論点を最新事例から整理します。
東南アの石油支援要請で問われる日本の備蓄外交と協力限界の整理
中東情勢の悪化で、東南アジアでは石油価格と供給への不安が強まっています。日本の石油備蓄はどこまで域内支援に使えるのか。ASEANの制度、日本の備蓄制度、協力の現実的な選択肢を解説します。
クマ駆除と猟銃許可判決を読む 公益と安全の線引きはどこにあるか
2026年3月27日の最高裁判決を手がかりに、北海道のクマ駆除ハンター訴訟を整理。猟銃許可取消の法的論点と、緊急銃猟制度や担い手不足まで読み解きます。
日銀の需給ギャップ見直しで読む物価と賃金の現在地
日銀が2026年3月に需給ギャップの推計方法を見直し、労働需給関連指標の定例公表も始めました。日本経済は本当に需要超過なのか、物価と賃金への示唆を整理します。
日銀の需給ギャップ再推計を読む 22年以降プラスが示す利上げ余地
日銀の需給ギャップが再推計で2022年以降プラス圏と整理されれば、これまでの需要不足認識は大きく変わります。推計見直しの意味と、利上げ路線への含意、注意点をわかりやすく解説します。