MicrosoftがAI半導体Maia 200発表、NVIDIA依存低減へ
はじめに
Microsoftは2026年1月26日、自社開発の新型AI半導体「Maia 200」を発表しました。この新チップは、生成AI処理の計算効率を高め、クラウドサービスの運用コストを抑えることを目的としています。
AI半導体市場ではNVIDIAが圧倒的なシェアを握っていますが、Google、Amazon、Metaといった大手ハイパースケーラーは自社開発チップへの投資を加速させています。MicrosoftのMaia 200も、この「脱NVIDIA依存」の流れを象徴する動きといえます。
本記事では、Maia 200の技術仕様や競合他社の動向、そしてAI半導体市場の今後について詳しく解説します。
Maia 200の技術仕様と特徴
前世代からの大幅な性能向上
Maia 200は、2023年に発表された初代「Maia 100」の後継チップです。TSMCの3nmプロセスで製造され、以下のような仕様を備えています。
| 項目 | Maia 200 | Maia 100 |
|---|---|---|
| トランジスタ数 | 1,400億以上 | 1,050億 |
| 製造プロセス | TSMC 3nm | TSMC 5nm |
| HBMメモリ | 216GB(HBM3e) | 64GB(HBM2E) |
| 4ビット精度演算 | 10+ PFLOPS | - |
| 8ビット精度演算 | 約5 PFLOPS | - |
Maia 200は1,400億を超えるトランジスタを搭載し、4ビット精度で10ペタフロップス以上、8ビット精度で約5ペタフロップスの演算性能を発揮します。216GBという大容量のHBM3eメモリは、最新の大規模言語モデル(LLM)が持つ膨大なコンテキストウィンドウを処理するために設計されています。
データセンターへの展開
Maia 200はすでに実運用が開始されています。アイオワ州デモインのMicrosoftデータセンターでは、Copilot 365、OpenAIのGPT-5.2モデル、そしてAI Superintelligenceチームの内部プロジェクトなどのワークロードを処理しています。
今後は、アリゾナ州フェニックス地域のデータセンターにも順次展開される予定です。
完全液冷設計
Maia 200は、Microsoftが設計した初の完全液冷サーバープロセッサです。液冷システムの採用により、サーバー密度を高めながら高い運用効率を維持することが可能になっています。
なぜMicrosoftは自社チップを開発するのか
NVIDIAへの高い依存度
AI半導体市場において、NVIDIAは約94%のシェアを握っています(2025年第2四半期時点)。MicrosoftをはじめとするクラウドプロバイダーはNVIDIAのGPUに大きく依存しており、供給制約やコスト上昇のリスクに直面しています。
Microsoft CTOのKevin Scott氏は、将来のデータセンターでは「主に自社チップを使用する」計画であることを明らかにしています。外部サプライヤーへの依存を断ち切ることで、容量制約とコスト上昇の両方に対処する狙いです。
総所有コスト(TCO)の優位性
自社開発チップを使用する最大のメリットは、総所有コスト(TCO)の大幅な削減です。市場分析によると、ハイパースケーラーが自社開発するASIC(特定用途向け集積回路)は、サードパーティ製GPUと比較して40〜65%のTCO削減効果があるとされています。
いわゆる「NVIDIAタックス」(NVIDIAの高いマージン)を回避することで、より低価格でAIクラウドサービスを提供しながら、高い収益性を維持することが可能になります。
Googleや Amazonとの競争
Microsoftによると、Maia 200はGoogleの最新TPU(Tensor Processing Unit)やAmazonの最新Trainiumチップを複数のカテゴリで上回る性能を発揮します。また、高帯域幅メモリの容量でも両社の製品を上回っており、高性能AIアプリケーションの実行に有利とされています。
競合他社の自社チップ開発動向
Google TPU v7(Ironwood)
Googleは2025年11月、第7世代TPU「Ironwood」を発表しました。AI専用チップ開発で10年の歴史を持つGoogleは、この分野のパイオニアです。
Ironwoodの主な特徴は以下の通りです。
- TSMC 3nmプロセスで製造
- チップあたり4.6ペタフロップス(FP8)の演算性能
- 192GBのHBM3eメモリ
- 光回路スイッチング(OCS)ファブリックにより9,216チップを単一「Superpod」として接続可能
半導体分析企業SemiAnalysisは「Googleのシリコン技術はハイパースケーラー間で比類なく、TPU第7世代はNVIDIA Blackwellに匹敵する」と評価しています。
Amazon Trainium 3
Amazonは傘下のAnnapurna Labsを通じてAI半導体を開発しています。2025年12月に発表されたTrainium 3の特徴は以下の通りです。
- TSMC 3nmプロセスで製造
- 2.52ペタフロップスの演算性能
- 144GBのHBM3eメモリ
- 競合他社と比較して30〜40%優れた価格性能比(Amazon発表)
AWSは「Project Rainier」と呼ばれる大規模プロジェクトを推進しており、2025年10月時点で50万個のTrainium 2チップが稼働し、年末までに100万個に拡大する計画です。インディアナ州ニューカーライルには110億ドル規模の施設を建設中で、これは世界最大の非NVIDIA AIコンピュートクラスターとなります。
Meta MTIA v3
Metaも独自のAIアクセラレータ「MTIA v3」(コードネーム:Santa Barbara)の大規模展開を開始しています。MicrosoftとMetaは、NVIDIAの最大顧客から最も手強い競合へと立場を変えつつあります。
AI半導体市場の今後
NVIDIAの優位性は続くか
NVIDIAは引き続きAI半導体市場を支配しています。20年にわたるCUDAエコシステムの構築、幅広いフレームワークへの最適化、研究者コミュニティでの定着が、競合他社が簡単には乗り越えられない参入障壁となっています。
しかし、ハイパースケーラー向けセグメントでは変化が見られます。2025年後半時点で、NVIDIAのデータセンターコンピュートにおけるシェアは約90%から約75%に低下しています。特にAI推論市場では、ハイパースケーラーの内部ワークロードの50%以上がすでに自社開発ASICで処理されています。
2030年に向けた予測
専門家は以下のような予測を示しています。
トレーニング市場: NVIDIAは90%以上のシェアを維持する見込みです。大規模言語モデルのトレーニングには汎用性の高いGPUが依然として最適であり、CUDAエコシステムの優位性が続きます。
推論市場: NVIDIAのシェアは2028年までに80%から20〜30%に低下し、ASICが70〜75%を占めると予測されています。推論はより定型的なワークロードであり、カスタムチップの最適化効果が大きいためです。
カスタムシリコン全体: 2030年までに市場シェアの15〜25%を占めると予測されています。ただし、これは主にハイパースケーラーの内部推論ワークロードに限定され、サードパーティ企業向けサービスでは引き続きNVIDIAが主流となる見込みです。
注意点と今後の課題
Maia 200の課題
Microsoft独自のチップ開発は順風満帆ではありません。一部の報道では、Maia 200(コードネーム:Braga)の量産は当初の2025年から2026年半ば以降に遅延したと伝えられています。半導体開発の複雑さと、NVIDIAに匹敵するエコシステム構築の難しさが課題となっています。
また、MaiaチップはGoogleやAmazonと異なり、外部顧客への提供は発表されていません。現時点ではAzure OpenAI ServicesやCopilotワークロードなど、Microsoft内部での利用に限定されています。
ソフトウェアエコシステムの壁
カスタムチップの最大の課題は、NVIDIAのCUDAエコシステムに対抗するソフトウェアスタックの構築です。研究者や開発者がNVIDIA GPUとCUDAに慣れ親しんでおり、新しいプラットフォームへの移行には大きなスイッチングコストが伴います。
次世代技術への展望
業界専門家によると、次世代チップは2026年後半から2027年初頭に登場し、2nmゲートオールアラウンド(GAA)トランジスタを採用する見込みです。また、MicrosoftとMetaは2027年のハードウェアサイクルに向けて、光インターコネクト(電気ではなく光でチップ間データを転送する技術)の研究を進めているとされています。
まとめ
MicrosoftのMaia 200発表は、ハイパースケーラーによる「脱NVIDIA依存」の動きが本格化していることを示しています。Google、Amazon、Metaも独自のAI半導体開発を進めており、AI半導体市場は新たな競争フェーズに入りました。
ただし、NVIDIAはCUDAエコシステムという強力な参入障壁を持ち、特にAIトレーニング市場では引き続き圧倒的な優位性を維持する見込みです。一方で推論市場では、ハイパースケーラーの自社チップが着実にシェアを拡大しています。
MicrosoftがMaia 200をどこまで成功させ、Azure顧客へのサービス向上とコスト削減を実現できるかが、今後の注目ポイントとなるでしょう。
参考資料:
- Microsoft’s next-gen Maia 200 chip promises massive performance boost(SiliconANGLE)
- Microsoft Unveils AI Chip to Cut Nvidia Reliance(Bloomberg)
- Custom Silicon Titans: Meta and Microsoft Challenge NVIDIA’s Dominance
- Inside Maia 100: Revolutionizing AI Workloads(Microsoft Tech Community)
- Nvidia GPUs, Google TPUs, AWS Trainium: Comparing the top AI chips(CNBC)
- The Great Decoupling: How Hyperscaler Custom ASICs are Dismantling the NVIDIA Monopoly
関連記事
NVIDIA最高益更新、手元資金10兆円でAI一強鮮明に
NVIDIAの2025年11月〜26年1月期決算は売上高・純利益ともに過去最高を更新。手元現金10兆円を武器に顧客企業への出資を加速する「投資循環」の実態と懸念を解説します。
アームが初の自社製チップ発表、AI半導体市場に本格参入
ソフトバンクグループ傘下の英アームが35年の歴史で初めて自社製チップ「AGI CPU」を発表。メタやOpenAIを顧客に迎え、5年で年間150億ドルの売上を目指す戦略転換の全容を解説します。
NVIDIAが米軍事テックに接近、AI半導体と地政学リスク
NVIDIAと防衛テクノロジー企業の連携が加速しています。イラン攻撃でAIの軍事利用が注目される中、AI半導体が抱える地政学リスクと中国への輸出規制問題を解説します。
エヌビディア新AI半導体で性能35倍、受注残は159兆円規模に
エヌビディアがGTC 2026で発表した新AI半導体プラットフォーム「Vera Rubin」の詳細と、電力効率35倍を実現するGroq 3 LPUとの統合、そして1兆ドルに達した受注残の背景を解説します。
トランプ政権がAI半導体輸出規制案を撤回した背景
トランプ政権が2026年3月にAI半導体の輸出規制案を撤回。バイデン時代の規制との類似性や米中首脳会談を控えた政治的背景、半導体業界への影響を詳しく解説します。
最新ニュース
アクティビストの標的が変化、還元から再編へ
割安株の減少でPBR1倍超え企業も標的に。アクティビストの投資戦略が株主還元から事業再編へとシフトする背景と今後の展望を解説します。
アームが初の自社製チップ発表、AI半導体市場に本格参入
ソフトバンクグループ傘下の英アームが35年の歴史で初めて自社製チップ「AGI CPU」を発表。メタやOpenAIを顧客に迎え、5年で年間150億ドルの売上を目指す戦略転換の全容を解説します。
Armが半導体自前開発に参入、AI向けCPUで事業転換
ソフトバンク傘下の英Armが35年間のIPライセンスモデルを転換し、自社開発チップ「AGI CPU」でメタやオープンAIにAI半導体を直接供給する戦略の背景と影響を解説します。
イビデン大幅続伸の背景と半導体銘柄上昇の全貌
2026年3月25日、イビデンが特別利益491億円の計上発表で大幅続伸。半導体関連銘柄が軒並み上昇した背景には、米イラン停戦期待による原油下落と投資家心理の改善がありました。
イラン強硬派「3人組」の実権と米15項目和平案の行方
ハメネイ師亡き後のイランで実権を握る革命防衛隊出身の強硬派3人組と、トランプ政権が提示した15項目の和平案の内容・交渉の行方を詳しく解説します。