Research

Research

by nicoxz

米国防総省がAnthropicにAI軍事利用を強制へ

by nicoxz
URLをコピーしました

はじめに

2026年2月24日、米国防総省とAI開発企業Anthropicの間で続いていた緊張関係が、一気に表面化しました。ピート・ヘグセス国防長官は、Anthropicのダリオ・アモデイCEOとの会談において、同社のAI技術を軍事目的で無制限に使用できるよう求め、応じなければ「法律で強制する」と通告しました。期限は2月27日午後5時1分と設定されています。

この問題は、単なる一企業と政府の契約紛争にとどまりません。AI技術の軍事利用をめぐる安全性の確保と、国家安全保障上の要請という、現代テクノロジー社会が直面する根本的な問いを突きつけています。本記事では、この対立の背景、両者の主張、そして今後の展望について詳しく解説します。

対立の経緯と背景

2億ドル契約と軍事AIネットワーク構想

2025年7月、米国防総省はAI技術の軍事活用を本格化させるため、Anthropic、Google、OpenAI、xAIの4社とそれぞれ最大2億ドル(約300億円)規模の契約を締結しました。これは「AIファースト戦闘部隊」構想の一環であり、ヘグセス長官が2026年1月9日に発出した省内メモでは、AI企業が設ける利用制限に縛られない形での軍事運用を推進する方針が示されていました。

4社のうちOpenAI、Google、xAIはすでに国防総省の非機密システムへのAIモデル提供に応じ、通常の安全制限を解除する形で協力しています。しかしAnthropicだけは、自社が設定する利用制限の維持を主張し、国防総省の要求に全面的には応じていませんでした。

ベネズエラ作戦での亀裂

対立が決定的になったきっかけは、米軍によるベネズエラのニコラス・マドゥロ大統領の拘束作戦でした。この作戦では、Anthropicのパートナー企業であるPalantirを通じて、AIモデル「Claude」が使用されました。Anthropicはこの利用について懸念を表明し、契約条件に反する可能性があると主張。これにより、両者の関係は急速に悪化しました。

NBC Newsの報道によれば、この問題をきっかけに国防総省はAnthropicとの契約延長協議を一時停止し、最悪の場合は契約を打ち切る可能性も示唆するようになりました。

ヘグセス長官の最後通告と国防生産法

会談の内容と期限の設定

2月24日、ヘグセス長官はアモデイCEOを国防総省に招き、直接会談を行いました。複数のメディアによれば、会談は緊迫したものとなり、ヘグセス長官はAnthropicに対して2月27日金曜日の午後5時1分までに方針を転換するよう最後通告を突きつけました。

国防総省が求めているのは、Claudeを「すべての合法的な目的」に制限なく使用できるようにすることです。具体的には、自律型兵器の開発や、米国民に対する大規模監視といった用途も含まれます。

国防生産法(DPA)の発動示唆

期限までにAnthropicが応じない場合、国防総省は複数の対抗措置を検討しています。CNNの報道によれば、国防総省高官は「国防生産法をAnthropicに対して発動し、同社の意思に関わらず国防総省が利用できるようにする」と明言しました。

国防生産法は1950年の朝鮮戦争時に制定された法律で、第二次世界大戦中の戦時権限法を基盤としています。大統領に対し、国家安全保障に不可欠な国内産業を統制する広範な権限を付与するもので、これまで50回以上にわたり議会で再授権されてきました。バイデン前政権も、大統領令14110の第4.2条でこの法律を援用し、AI企業に訓練活動やレッドチーム結果の報告を義務づけていました。

さらに国防総省は、Anthropicを「サプライチェーンリスク」に指定する可能性も示しています。この指定は通常、外国の敵対勢力に対して適用されるもので、国防総省の下請け業者やパートナー企業はAnthropicの製品を使用しないことを証明する義務を負うことになります。

法的な実効性をめぐる議論

一方で、国防生産法のAI企業への適用については法的な疑問も提起されています。法律専門メディアLawfareは、同法がAnthropicに対して実際に何ができ、何ができないかを分析する記事を公開しており、ソフトウェア企業への適用は前例が少なく、法的な争いに発展する可能性があると指摘しています。

Anthropicの立場と安全方針の変更

2つのレッドライン

アモデイCEOは会談において、Anthropicが譲れない2つの原則を改めて主張しました。第一に、完全自律型の軍事標的指定作戦にAIを使用しないこと。第二に、米国市民に対する大規模監視にAIを使用しないことです。

Anthropicの立場は、現時点のAI技術は兵器を自律的に運用するほどの信頼性を持っておらず、また大規模監視に関する法規制も整備されていないというものです。事情に詳しい関係者によれば、Anthropicはこれらのレッドラインについて譲歩する予定はないとしています。

一方で、Anthropicはミサイル防衛システムなど、一定の軍事利用については容認する姿勢を示しているとNBC Newsが報じています。つまり、軍事利用そのものを全面的に拒否しているわけではなく、特定の用途に限定した協力を提案しているのです。

責任あるスケーリングポリシーの改定

興味深いことに、この対立の渦中にある2月25日、Anthropicは自社の安全方針「責任あるスケーリングポリシー(RSP)」のバージョン3.0を公開しました。新方針では、より高性能なモデルの開発に際して安全対策が確立されるまで訓練を一時停止するという従来の「ハードコミットメント」を撤廃し、代わりに「フロンティア安全ロードマップ」という、より柔軟な枠組みを導入しました。

Anthropicはこの変更について、責任あるAI開発者だけが成長を止め、安全性への配慮が少ない企業が先行する状況は「世界をより危険にする」と説明しています。ただし、このタイミングでの発表は国防総省との対立と無関係ではないとの見方もあり、CNNは「ペンタゴンとのレッドライン闘争の最中に核心的な安全性の約束を撤回した」と報じています。

注意点・展望

この問題を考えるうえで注意すべき点がいくつかあります。まず、国防生産法のAI企業への適用は前例がほとんどなく、仮に発動されたとしても法廷での争いに発展する可能性が高いです。また、「サプライチェーンリスク」指定は通常、中国やロシアの企業に対して適用される措置であり、米国の民間企業に適用することの妥当性については議論が分かれます。

今後の展望として、2月27日の期限が最大の注目点です。Anthropicが方針を転換するのか、あるいは期限を超えて政府との対立を続けるのか。国防総省が実際に国防生産法を発動した場合、それはAI産業全体に対する前例となり、他のテクノロジー企業の政府との関係にも大きな影響を与えます。

Foreign Policyは、この対立がAI技術の軍事利用をめぐる今後の国際的な規範形成にとって「悪い兆候」であると論評しています。政府と民間企業の間でAI技術の利用範囲についてどのような合意が形成されるかは、米国だけでなく世界のAI政策に影響を及ぼす重要な先例となるでしょう。

まとめ

米国防総省とAnthropicの対立は、AI技術の軍事利用をめぐる安全性と国家安全保障の根本的な緊張関係を象徴しています。国防総省は「すべての合法的な用途」での無制限利用を求め、Anthropicは自律型兵器と大規模監視という2つのレッドラインを維持しようとしています。

2月27日の期限を前に、国防生産法の発動やサプライチェーンリスク指定といった強硬手段が現実味を帯びています。この問題の結末は、AI企業と政府の関係、そして技術の軍事利用に関する国際的な規範に長期的な影響を与えることになるでしょう。今後の動向を注視する必要があります。

参考資料:

関連記事

最新ニュース