MicrosoftがAI半導体Maia 200発表、NVIDIA依存低減へ
はじめに
Microsoftは2026年1月26日、自社開発の新型AI半導体「Maia 200」を発表しました。この新チップは、生成AI処理の計算効率を高め、クラウドサービスの運用コストを抑えることを目的としています。
AI半導体市場ではNVIDIAが圧倒的なシェアを握っていますが、Google、Amazon、Metaといった大手ハイパースケーラーは自社開発チップへの投資を加速させています。MicrosoftのMaia 200も、この「脱NVIDIA依存」の流れを象徴する動きといえます。
本記事では、Maia 200の技術仕様や競合他社の動向、そしてAI半導体市場の今後について詳しく解説します。
Maia 200の技術仕様と特徴
前世代からの大幅な性能向上
Maia 200は、2023年に発表された初代「Maia 100」の後継チップです。TSMCの3nmプロセスで製造され、以下のような仕様を備えています。
| 項目 | Maia 200 | Maia 100 |
|---|---|---|
| トランジスタ数 | 1,400億以上 | 1,050億 |
| 製造プロセス | TSMC 3nm | TSMC 5nm |
| HBMメモリ | 216GB(HBM3e) | 64GB(HBM2E) |
| 4ビット精度演算 | 10+ PFLOPS | - |
| 8ビット精度演算 | 約5 PFLOPS | - |
Maia 200は1,400億を超えるトランジスタを搭載し、4ビット精度で10ペタフロップス以上、8ビット精度で約5ペタフロップスの演算性能を発揮します。216GBという大容量のHBM3eメモリは、最新の大規模言語モデル(LLM)が持つ膨大なコンテキストウィンドウを処理するために設計されています。
データセンターへの展開
Maia 200はすでに実運用が開始されています。アイオワ州デモインのMicrosoftデータセンターでは、Copilot 365、OpenAIのGPT-5.2モデル、そしてAI Superintelligenceチームの内部プロジェクトなどのワークロードを処理しています。
今後は、アリゾナ州フェニックス地域のデータセンターにも順次展開される予定です。
完全液冷設計
Maia 200は、Microsoftが設計した初の完全液冷サーバープロセッサです。液冷システムの採用により、サーバー密度を高めながら高い運用効率を維持することが可能になっています。
なぜMicrosoftは自社チップを開発するのか
NVIDIAへの高い依存度
AI半導体市場において、NVIDIAは約94%のシェアを握っています(2025年第2四半期時点)。MicrosoftをはじめとするクラウドプロバイダーはNVIDIAのGPUに大きく依存しており、供給制約やコスト上昇のリスクに直面しています。
Microsoft CTOのKevin Scott氏は、将来のデータセンターでは「主に自社チップを使用する」計画であることを明らかにしています。外部サプライヤーへの依存を断ち切ることで、容量制約とコスト上昇の両方に対処する狙いです。
総所有コスト(TCO)の優位性
自社開発チップを使用する最大のメリットは、総所有コスト(TCO)の大幅な削減です。市場分析によると、ハイパースケーラーが自社開発するASIC(特定用途向け集積回路)は、サードパーティ製GPUと比較して40〜65%のTCO削減効果があるとされています。
いわゆる「NVIDIAタックス」(NVIDIAの高いマージン)を回避することで、より低価格でAIクラウドサービスを提供しながら、高い収益性を維持することが可能になります。
Googleや Amazonとの競争
Microsoftによると、Maia 200はGoogleの最新TPU(Tensor Processing Unit)やAmazonの最新Trainiumチップを複数のカテゴリで上回る性能を発揮します。また、高帯域幅メモリの容量でも両社の製品を上回っており、高性能AIアプリケーションの実行に有利とされています。
競合他社の自社チップ開発動向
Google TPU v7(Ironwood)
Googleは2025年11月、第7世代TPU「Ironwood」を発表しました。AI専用チップ開発で10年の歴史を持つGoogleは、この分野のパイオニアです。
Ironwoodの主な特徴は以下の通りです。
- TSMC 3nmプロセスで製造
- チップあたり4.6ペタフロップス(FP8)の演算性能
- 192GBのHBM3eメモリ
- 光回路スイッチング(OCS)ファブリックにより9,216チップを単一「Superpod」として接続可能
半導体分析企業SemiAnalysisは「Googleのシリコン技術はハイパースケーラー間で比類なく、TPU第7世代はNVIDIA Blackwellに匹敵する」と評価しています。
Amazon Trainium 3
Amazonは傘下のAnnapurna Labsを通じてAI半導体を開発しています。2025年12月に発表されたTrainium 3の特徴は以下の通りです。
- TSMC 3nmプロセスで製造
- 2.52ペタフロップスの演算性能
- 144GBのHBM3eメモリ
- 競合他社と比較して30〜40%優れた価格性能比(Amazon発表)
AWSは「Project Rainier」と呼ばれる大規模プロジェクトを推進しており、2025年10月時点で50万個のTrainium 2チップが稼働し、年末までに100万個に拡大する計画です。インディアナ州ニューカーライルには110億ドル規模の施設を建設中で、これは世界最大の非NVIDIA AIコンピュートクラスターとなります。
Meta MTIA v3
Metaも独自のAIアクセラレータ「MTIA v3」(コードネーム:Santa Barbara)の大規模展開を開始しています。MicrosoftとMetaは、NVIDIAの最大顧客から最も手強い競合へと立場を変えつつあります。
AI半導体市場の今後
NVIDIAの優位性は続くか
NVIDIAは引き続きAI半導体市場を支配しています。20年にわたるCUDAエコシステムの構築、幅広いフレームワークへの最適化、研究者コミュニティでの定着が、競合他社が簡単には乗り越えられない参入障壁となっています。
しかし、ハイパースケーラー向けセグメントでは変化が見られます。2025年後半時点で、NVIDIAのデータセンターコンピュートにおけるシェアは約90%から約75%に低下しています。特にAI推論市場では、ハイパースケーラーの内部ワークロードの50%以上がすでに自社開発ASICで処理されています。
2030年に向けた予測
専門家は以下のような予測を示しています。
トレーニング市場: NVIDIAは90%以上のシェアを維持する見込みです。大規模言語モデルのトレーニングには汎用性の高いGPUが依然として最適であり、CUDAエコシステムの優位性が続きます。
推論市場: NVIDIAのシェアは2028年までに80%から20〜30%に低下し、ASICが70〜75%を占めると予測されています。推論はより定型的なワークロードであり、カスタムチップの最適化効果が大きいためです。
カスタムシリコン全体: 2030年までに市場シェアの15〜25%を占めると予測されています。ただし、これは主にハイパースケーラーの内部推論ワークロードに限定され、サードパーティ企業向けサービスでは引き続きNVIDIAが主流となる見込みです。
注意点と今後の課題
Maia 200の課題
Microsoft独自のチップ開発は順風満帆ではありません。一部の報道では、Maia 200(コードネーム:Braga)の量産は当初の2025年から2026年半ば以降に遅延したと伝えられています。半導体開発の複雑さと、NVIDIAに匹敵するエコシステム構築の難しさが課題となっています。
また、MaiaチップはGoogleやAmazonと異なり、外部顧客への提供は発表されていません。現時点ではAzure OpenAI ServicesやCopilotワークロードなど、Microsoft内部での利用に限定されています。
ソフトウェアエコシステムの壁
カスタムチップの最大の課題は、NVIDIAのCUDAエコシステムに対抗するソフトウェアスタックの構築です。研究者や開発者がNVIDIA GPUとCUDAに慣れ親しんでおり、新しいプラットフォームへの移行には大きなスイッチングコストが伴います。
次世代技術への展望
業界専門家によると、次世代チップは2026年後半から2027年初頭に登場し、2nmゲートオールアラウンド(GAA)トランジスタを採用する見込みです。また、MicrosoftとMetaは2027年のハードウェアサイクルに向けて、光インターコネクト(電気ではなく光でチップ間データを転送する技術)の研究を進めているとされています。
まとめ
MicrosoftのMaia 200発表は、ハイパースケーラーによる「脱NVIDIA依存」の動きが本格化していることを示しています。Google、Amazon、Metaも独自のAI半導体開発を進めており、AI半導体市場は新たな競争フェーズに入りました。
ただし、NVIDIAはCUDAエコシステムという強力な参入障壁を持ち、特にAIトレーニング市場では引き続き圧倒的な優位性を維持する見込みです。一方で推論市場では、ハイパースケーラーの自社チップが着実にシェアを拡大しています。
MicrosoftがMaia 200をどこまで成功させ、Azure顧客へのサービス向上とコスト削減を実現できるかが、今後の注目ポイントとなるでしょう。
参考資料:
- Microsoft’s next-gen Maia 200 chip promises massive performance boost(SiliconANGLE)
- Microsoft Unveils AI Chip to Cut Nvidia Reliance(Bloomberg)
- Custom Silicon Titans: Meta and Microsoft Challenge NVIDIA’s Dominance
- Inside Maia 100: Revolutionizing AI Workloads(Microsoft Tech Community)
- Nvidia GPUs, Google TPUs, AWS Trainium: Comparing the top AI chips(CNBC)
- The Great Decoupling: How Hyperscaler Custom ASICs are Dismantling the NVIDIA Monopoly
関連記事
TSMC、10-12月期は過去最高益、AI半導体が成長牽引
TSMCの2025年10-12月期決算は売上高・純利益とも過去最高を更新。NVIDIA向けAI半導体の需要拡大が好業績を牽引し、2nm量産開始や設備投資拡大など今後の成長戦略を解説します。
上場企業の7割が増益、AI投資の恩恵が幅広い業種に波及
2025年4〜12月期決算で上場企業の7割が最終増益を記録。生成AI投資の恩恵が半導体装置や素材にとどまらずデータセンター関連に拡大した背景を解説します。
OpenAI増資にNVIDIAなど米テック3社が最大9兆円出資協議
OpenAIの大型資金調達にNVIDIA、Microsoft、Amazonの3社が最大600億ドル(約9兆円)の出資を協議しています。AI開発競争が激化する中、巨額投資の背景と今後の展望を解説します。
NVIDIA H200の対中輸出、米中間で駆け引き激化
米国がNVIDIA H200の対中輸出を条件付きで解禁。中国は一時輸入拒否を示すも受け入れ準備を開始。AI半導体を巡る米中の思惑と今後の展望を解説します。
インテル株が17%急落、製造問題と供給不足が深刻化
インテルの株価が17%急落し、2024年以来最悪の下落を記録。Q4決算は予想を上回ったものの、製造上の問題と半導体供給不足が深刻化しており、2026年Q1は最も厳しい状況になる見通しです。
最新ニュース
ビットコイン7万ドル台急落、テック株売りが暗号資産に波及
ビットコインが約1年3カ月ぶりの安値となる7万2000ドル台に急落しました。米ハイテク株の売りが暗号資産市場に波及した背景と、MicroStrategyの含み損問題について解説します。
日銀の量的引き締め出遅れと円安の関係を解説
日銀のマネタリーベース縮小が米欧に比べ緩やかな理由と、それが円安に与える影響について解説します。FRB新議長候補ウォーシュ氏の金融政策姿勢にも注目が集まっています。
書店600店の在庫を一元化|返品率30ポイント削減の新システム
紀伊国屋書店、TSUTAYA、日販が出資するブックセラーズ&カンパニーが、56社603店の在庫を横断管理するデータベースを始動。返品率6割減を実現した事例と、出版業界の構造改革を解説します。
中国海警局の尖閣周辺活動が過去最多に、日中の緊張続く
2025年、中国海警局の船舶が尖閣諸島周辺の接続水域に357日出没し過去最多を更新。日本の対応策と偶発的衝突防止の課題を解説します。
中国の土地売却収入がピーク比半減、地方財政に深刻な打撃
中国の地方政府の土地売却収入が2025年も前年比14.7%減少し4年連続の減少を記録。ピークの2021年から52%減となり、不動産不況が地方財政を圧迫し続けています。