Research

Research

by nicoxz

MicrosoftがAI半導体Maia 200発表、NVIDIA依存低減へ

by nicoxz
URLをコピーしました

はじめに

Microsoftは2026年1月26日、自社開発の新型AI半導体「Maia 200」を発表しました。この新チップは、生成AI処理の計算効率を高め、クラウドサービスの運用コストを抑えることを目的としています。

AI半導体市場ではNVIDIAが圧倒的なシェアを握っていますが、Google、Amazon、Metaといった大手ハイパースケーラーは自社開発チップへの投資を加速させています。MicrosoftのMaia 200も、この「脱NVIDIA依存」の流れを象徴する動きといえます。

本記事では、Maia 200の技術仕様や競合他社の動向、そしてAI半導体市場の今後について詳しく解説します。

Maia 200の技術仕様と特徴

前世代からの大幅な性能向上

Maia 200は、2023年に発表された初代「Maia 100」の後継チップです。TSMCの3nmプロセスで製造され、以下のような仕様を備えています。

項目Maia 200Maia 100
トランジスタ数1,400億以上1,050億
製造プロセスTSMC 3nmTSMC 5nm
HBMメモリ216GB(HBM3e)64GB(HBM2E)
4ビット精度演算10+ PFLOPS-
8ビット精度演算約5 PFLOPS-

Maia 200は1,400億を超えるトランジスタを搭載し、4ビット精度で10ペタフロップス以上、8ビット精度で約5ペタフロップスの演算性能を発揮します。216GBという大容量のHBM3eメモリは、最新の大規模言語モデル(LLM)が持つ膨大なコンテキストウィンドウを処理するために設計されています。

データセンターへの展開

Maia 200はすでに実運用が開始されています。アイオワ州デモインのMicrosoftデータセンターでは、Copilot 365、OpenAIのGPT-5.2モデル、そしてAI Superintelligenceチームの内部プロジェクトなどのワークロードを処理しています。

今後は、アリゾナ州フェニックス地域のデータセンターにも順次展開される予定です。

完全液冷設計

Maia 200は、Microsoftが設計した初の完全液冷サーバープロセッサです。液冷システムの採用により、サーバー密度を高めながら高い運用効率を維持することが可能になっています。

なぜMicrosoftは自社チップを開発するのか

NVIDIAへの高い依存度

AI半導体市場において、NVIDIAは約94%のシェアを握っています(2025年第2四半期時点)。MicrosoftをはじめとするクラウドプロバイダーはNVIDIAのGPUに大きく依存しており、供給制約やコスト上昇のリスクに直面しています。

Microsoft CTOのKevin Scott氏は、将来のデータセンターでは「主に自社チップを使用する」計画であることを明らかにしています。外部サプライヤーへの依存を断ち切ることで、容量制約とコスト上昇の両方に対処する狙いです。

総所有コスト(TCO)の優位性

自社開発チップを使用する最大のメリットは、総所有コスト(TCO)の大幅な削減です。市場分析によると、ハイパースケーラーが自社開発するASIC(特定用途向け集積回路)は、サードパーティ製GPUと比較して40〜65%のTCO削減効果があるとされています。

いわゆる「NVIDIAタックス」(NVIDIAの高いマージン)を回避することで、より低価格でAIクラウドサービスを提供しながら、高い収益性を維持することが可能になります。

Googleや Amazonとの競争

Microsoftによると、Maia 200はGoogleの最新TPU(Tensor Processing Unit)やAmazonの最新Trainiumチップを複数のカテゴリで上回る性能を発揮します。また、高帯域幅メモリの容量でも両社の製品を上回っており、高性能AIアプリケーションの実行に有利とされています。

競合他社の自社チップ開発動向

Google TPU v7(Ironwood)

Googleは2025年11月、第7世代TPU「Ironwood」を発表しました。AI専用チップ開発で10年の歴史を持つGoogleは、この分野のパイオニアです。

Ironwoodの主な特徴は以下の通りです。

  • TSMC 3nmプロセスで製造
  • チップあたり4.6ペタフロップス(FP8)の演算性能
  • 192GBのHBM3eメモリ
  • 光回路スイッチング(OCS)ファブリックにより9,216チップを単一「Superpod」として接続可能

半導体分析企業SemiAnalysisは「Googleのシリコン技術はハイパースケーラー間で比類なく、TPU第7世代はNVIDIA Blackwellに匹敵する」と評価しています。

Amazon Trainium 3

Amazonは傘下のAnnapurna Labsを通じてAI半導体を開発しています。2025年12月に発表されたTrainium 3の特徴は以下の通りです。

  • TSMC 3nmプロセスで製造
  • 2.52ペタフロップスの演算性能
  • 144GBのHBM3eメモリ
  • 競合他社と比較して30〜40%優れた価格性能比(Amazon発表)

AWSは「Project Rainier」と呼ばれる大規模プロジェクトを推進しており、2025年10月時点で50万個のTrainium 2チップが稼働し、年末までに100万個に拡大する計画です。インディアナ州ニューカーライルには110億ドル規模の施設を建設中で、これは世界最大の非NVIDIA AIコンピュートクラスターとなります。

Meta MTIA v3

Metaも独自のAIアクセラレータ「MTIA v3」(コードネーム:Santa Barbara)の大規模展開を開始しています。MicrosoftとMetaは、NVIDIAの最大顧客から最も手強い競合へと立場を変えつつあります。

AI半導体市場の今後

NVIDIAの優位性は続くか

NVIDIAは引き続きAI半導体市場を支配しています。20年にわたるCUDAエコシステムの構築、幅広いフレームワークへの最適化、研究者コミュニティでの定着が、競合他社が簡単には乗り越えられない参入障壁となっています。

しかし、ハイパースケーラー向けセグメントでは変化が見られます。2025年後半時点で、NVIDIAのデータセンターコンピュートにおけるシェアは約90%から約75%に低下しています。特にAI推論市場では、ハイパースケーラーの内部ワークロードの50%以上がすでに自社開発ASICで処理されています。

2030年に向けた予測

専門家は以下のような予測を示しています。

トレーニング市場: NVIDIAは90%以上のシェアを維持する見込みです。大規模言語モデルのトレーニングには汎用性の高いGPUが依然として最適であり、CUDAエコシステムの優位性が続きます。

推論市場: NVIDIAのシェアは2028年までに80%から20〜30%に低下し、ASICが70〜75%を占めると予測されています。推論はより定型的なワークロードであり、カスタムチップの最適化効果が大きいためです。

カスタムシリコン全体: 2030年までに市場シェアの15〜25%を占めると予測されています。ただし、これは主にハイパースケーラーの内部推論ワークロードに限定され、サードパーティ企業向けサービスでは引き続きNVIDIAが主流となる見込みです。

注意点と今後の課題

Maia 200の課題

Microsoft独自のチップ開発は順風満帆ではありません。一部の報道では、Maia 200(コードネーム:Braga)の量産は当初の2025年から2026年半ば以降に遅延したと伝えられています。半導体開発の複雑さと、NVIDIAに匹敵するエコシステム構築の難しさが課題となっています。

また、MaiaチップはGoogleやAmazonと異なり、外部顧客への提供は発表されていません。現時点ではAzure OpenAI ServicesやCopilotワークロードなど、Microsoft内部での利用に限定されています。

ソフトウェアエコシステムの壁

カスタムチップの最大の課題は、NVIDIAのCUDAエコシステムに対抗するソフトウェアスタックの構築です。研究者や開発者がNVIDIA GPUとCUDAに慣れ親しんでおり、新しいプラットフォームへの移行には大きなスイッチングコストが伴います。

次世代技術への展望

業界専門家によると、次世代チップは2026年後半から2027年初頭に登場し、2nmゲートオールアラウンド(GAA)トランジスタを採用する見込みです。また、MicrosoftとMetaは2027年のハードウェアサイクルに向けて、光インターコネクト(電気ではなく光でチップ間データを転送する技術)の研究を進めているとされています。

まとめ

MicrosoftのMaia 200発表は、ハイパースケーラーによる「脱NVIDIA依存」の動きが本格化していることを示しています。Google、Amazon、Metaも独自のAI半導体開発を進めており、AI半導体市場は新たな競争フェーズに入りました。

ただし、NVIDIAはCUDAエコシステムという強力な参入障壁を持ち、特にAIトレーニング市場では引き続き圧倒的な優位性を維持する見込みです。一方で推論市場では、ハイパースケーラーの自社チップが着実にシェアを拡大しています。

MicrosoftがMaia 200をどこまで成功させ、Azure顧客へのサービス向上とコスト削減を実現できるかが、今後の注目ポイントとなるでしょう。

参考資料:

関連記事

最新ニュース