Research
Research

by nicoxz

エヌビディア新AI半導体で性能35倍、受注残は159兆円規模に

by nicoxz
URLをコピーしました

はじめに

米エヌビディアは2026年3月16日、年次技術イベント「GTC 2026」の基調講演で、新型AI半導体プラットフォーム「Vera Rubin(ベラ・ルービン)」を発表しました。電力効率が従来比で最大35倍に向上し、2027年までの受注残が1兆ドル(約159兆円)に達したことも明らかにしています。

AIエージェントの本格的な普及を見据え、推論処理の効率化に焦点を当てた今回の発表は、AI半導体市場の次のフェーズを示すものです。本記事では、Vera Rubinプラットフォームの技術的な特徴と、エヌビディアが描くAIインフラの未来について詳しく解説します。

Vera Rubinプラットフォームの全貌

7つの新チップで構成される統合プラットフォーム

Vera Rubinプラットフォームは、7つの新チップで構成される包括的なAIインフラ基盤です。具体的には、Vera CPU、Rubin GPU、NVLink 6スイッチ、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6イーサネットスイッチ、そして新たに統合されたGroq 3 LPU(Language Processing Unit)で構成されています。

これら7つのチップすべてが量産段階に入っており、パートナー企業を通じた製品は2026年後半から出荷が始まる予定です。AIの学習から推論まで、すべてのフェーズを一つのプラットフォームでカバーする設計です。

Rubin GPUの圧倒的なスペック

Rubin GPUの注目すべき特徴は、HBM4メモリを搭載し、22TB/sという記録的なメモリ帯域幅を実現している点です。72基のRubin GPUと36基のVera CPUを統合したNVL72ラックは、FP4推論で3.6EFLOPS(エクサフロップス)の計算能力を持ちます。

前世代のBlackwellプラットフォームと比較すると、大規模な混合エキスパートモデルの学習に必要なGPU数が4分の1に削減されます。また、推論スループットは1ワットあたり最大10倍に向上し、トークンあたりのコストは10分の1に低減されます。

新設計のVera CPU

Vera CPUには88基のカスタム設計「Olympus」コアが搭載されています。各コアは「Spatial Multithreading」と呼ばれる技術により、2つのタスクを同時に実行できます。LPDDR5Xメモリにより最大1.2TB/sのメモリ帯域幅を実現しています。

従来のラックスケールCPUと比較して、50%高速かつ2倍のエネルギー効率を達成しています。Rubin GPUとNVLink-C2Cで接続した場合、1.8TB/sのコヒーレント帯域幅に達します。エヌビディアがGPUだけでなくCPU市場にも本格参入する意思を明確に示した製品です。

Groq 3 LPUがもたらす35倍の効率

200億ドルの買収が生んだ新チップ

35倍という電力効率の向上を可能にしたのが、Groq 3 LPUの統合です。これはエヌビディアがGroq社を約200億ドル(約3.2兆円)で買収した成果として生まれた最初の製品です。買収からわずか3カ月で製品化に至った点は、両社の技術統合のスピードを示しています。

Groq 3 LPUは、計算能力ではRubin GPUの25分の1に過ぎません。しかし500MBの大容量SRAMキャッシュと、150TB/sという圧倒的なメモリ帯域幅を備えています。GPUが大量のデータを並列処理するのに対し、LPUは推論処理に特化した「コプロセッサ」として機能します。

GPUとLPUの補完関係

Groq 3 LPX ラックは256基のLPUを搭載し、Vera Rubin NVL72ラックと組み合わせて運用されます。NVLink 72がスループットを支配する一方、極端に高速なトークン生成(毎秒1,000トークン以上)ではGPUの帯域幅が不足します。Groqの決定論的データフロープロセッサが、GPUが対応しきれない領域を補完する設計です。

この組み合わせにより、メガワットあたりの推論スループットが最大35倍に向上します。1兆パラメータ規模のモデルに対しては、データセンター事業者の収益機会が最大10倍に拡大するとされています。

受注残1兆ドルの意味

AIインフラ投資の加速

ジェンスン・ファンCEOは基調講演で「2027年まで少なくとも1兆ドルの受注が見える」と述べました。これは現行のBlackwellプロセッサと次世代Vera Rubinの両方に対する需要を合算した数字です。2025年末時点で既に約5,000億ドルのAI半導体受注があったことから、わずか数カ月で倍増した計算になります。

この受注規模は、世界中の企業がAIインフラへの投資を一段と加速させていることを示しています。特にAIエージェントの実用化に向けた大規模データセンターの需要が急増しています。

エージェンティックAI時代への布石

今回の発表で特に注目すべきは、エヌビディアが「エージェンティックAI」を明確な戦略軸に据えた点です。人間が読むテキストの生成では毎秒100トークン程度で十分ですが、AIエージェント同士が高速に通信するには毎秒1,500トークンが必要とされています。

Vera Rubinプラットフォームは、このエージェント間通信の要求に応える設計です。AIが単なるチャットボットから、業務を自動化する「デジタル労働力」へと進化する中で、推論処理の効率化が最重要課題になっています。

注意点・展望

エヌビディアのAI半導体は依然として圧倒的なシェアを持っていますが、競争環境は変化しつつあります。AMDやインテル、さらにはGoogleやAmazonなどのクラウド大手も自社設計のAIチップを強化しています。1兆ドルの受注残は巨大ですが、実際の出荷・売上に転換されるまでには生産能力や供給チェーンの制約があります。

また、AI半導体市場の急拡大が今後も続くかどうかについては見方が分かれます。AIへの投資が実際のビジネス収益に結びつくかどうかが、長期的な需要を左右する重要な要素です。ただし、エージェンティックAIの普及が本格化すれば、推論処理の需要は学習以上に膨大になると予測されており、エヌビディアの先行投資は合理的な判断といえます。

まとめ

エヌビディアがGTC 2026で発表したVera Rubinプラットフォームは、AI半導体の新たなマイルストーンです。Groq買収の成果であるGroq 3 LPUとの統合による電力効率35倍の向上、7つの新チップの量産開始、そして受注残1兆ドルという数字が、同社の圧倒的な市場支配力を改めて示しました。

エージェンティックAIの本格普及に向けて、AI半導体市場は学習用から推論用へと重心が移りつつあります。Vera Rubinがこの転換点で果たす役割を、今後も注視する必要があります。

参考資料:

関連記事

最新ニュース