Research

Research

by nicoxz

米国防長官がAnthropicCEOを召喚、AI軍事利用で対立激化

by nicoxz
URLをコピーしました

はじめに

米国防長官ピート・ヘグセス氏が、AI企業Anthropic(アンスロピック)のダリオ・アモデイ最高経営責任者(CEO)を国防総省に召喚し、2026年2月25日(火)に会談を行うことが明らかになりました。焦点となっているのは、Anthropicが開発する対話型AI「Claude(クロード)」の軍事利用を巡る方針の対立です。国防総省はAIを「あらゆる合法的な用途」で使用したい考えですが、Anthropicは完全自律型兵器や大規模な国内監視への利用に倫理的な制限を設けています。この対立は、AI技術の軍事応用における倫理と安全保障のバランスという根本的な問題を浮き彫りにしています。

対立の背景:ベネズエラ作戦とClaudeの軍事利用

マドゥロ拘束作戦での使用が発覚

対立が決定的に深刻化したのは、2026年1月3日に実施されたベネズエラのニコラス・マドゥロ大統領を拘束する米軍特殊作戦でClaudeが使用されたことが報じられたことがきっかけです。Claudeは、Anthropicの防衛分野でのパートナーであるPalantir Technologies(パランティア・テクノロジーズ)の基盤を通じて米軍の機密ネットワーク上で運用されており、この作戦でも活用されたとされています。

報道によると、この事実を知ったAnthropicの幹部がPalantirの幹部に対して、自社のソフトウェアが作戦で使用されたかどうかを問い合わせたとのことです。しかし、Palantir側はこの問い合わせの仕方に「Anthropicが自社製品の軍事利用に否定的なのではないか」という懸念を抱き、その件を国防総省に報告しました。この一連のやり取りが、両者の関係を一気に悪化させる引き金となりました。

Claudeの特殊な立ち位置

注目すべきは、Claudeが米軍の完全機密ネットワーク上で利用可能な唯一のAIモデルであるという点です。AnthropicはPalantirとの提携を通じて、2024年から米国の防衛・情報機関にClaudeへのアクセスを提供しており、機密システム上でサービスを展開した最初のAI企業となりました。この事実が、国防総省にとってAnthropicの代替が極めて困難であることを意味すると同時に、交渉における重要なレバレッジとなっています。

国防総省とAnthropicの主張:何が対立しているのか

国防総省の立場:「あらゆる合法的な用途」

国防総省は、Anthropicを含む主要AI企業(OpenAI、Google、xAIなど)に対し、AIモデルを「あらゆる合法的な用途(all lawful purposes)」に使用できるよう求めています。国防総省の研究開発担当次官であるエミール・マイケル氏は、Anthropicに対して「ルビコンを渡る」よう促し、「軍には特定のユースケースがあり、それらのユースケースの実施方法を規定する法律と規制が存在する」と主張しました。

さらにマイケル氏は、一民間企業がAIの軍事利用を制限することは「民主的ではない」と批判し、軍事利用の判断は選挙で選ばれた政府と既存の法規制に基づくべきだとの考えを示しています。

Anthropicの立場:2つのレッドライン

一方のAnthropicは、国家安全保障目的でのAI利用を広く支持しつつも、2つの明確な制限線を設けています。

1つ目は、米国市民に対する大規模監視への利用禁止です。2つ目は、人間の介在なしに攻撃を実行する完全自律型兵器への利用禁止です。

アモデイCEOは2026年1月下旬に発表したエッセイの中で、「民主主義国家にはAIを活用した軍事的・地政学的ツールに対する正当な利益がある」としながらも、「民主主義国家にAIで武装させるべきだが、慎重に、そして制限の範囲内で行うべきだ」と述べています。Anthropicは「安全性第一」を企業理念の柱に据えており、この姿勢は同社の存在意義そのものに関わる問題です。

契約破棄と「サプライチェーンリスク」指定の脅威

最大2億ドルの契約が危機に

国防総省は、Anthropicとの関係見直しに向けた強硬な姿勢を示しています。具体的には、2025年7月に締結されたAnthropicとの最大2億ドル規模の契約を破棄する可能性が取り沙汰されています。この契約は、Anthropicの他にOpenAI、Google、xAIなども同時に獲得したAI調達契約の一環でした。

「サプライチェーンリスク」指定という最大の脅威

さらに深刻なのは、ヘグセス国防長官がAnthropicを「サプライチェーンリスク」に指定することを検討しているという点です。この指定は通常、外国の敵対的企業に対して適用されるもので、もし発動された場合、Anthropicとの契約が無効化されるだけでなく、国防総省と取引する他のすべてのパートナー企業がClaudeの使用を停止せざるを得なくなります。

ただし、Anthropicの年間売上は約140億ドルとされており、2億ドルの軍事契約は財務的には小さな割合です。しかし、サプライチェーンリスク指定による風評被害や他の政府機関との取引への波及効果は、金額以上の影響をもたらす可能性があります。

AI軍事利用を巡る国際的な議論

国連での規制の動き

AIの軍事利用を巡る倫理的な問題は、国際社会でも大きな議論となっています。2024年12月、国連総会は致死性自律型兵器システム(LAWS)に関する決議を賛成166、反対3、棄権15で採択しました。この決議は、一部のLAWSの禁止と、その他の自律型兵器の国際法下での規制という二層的なアプローチを提唱しています。

国連事務総長は、2026年までに人間の制御や監視なしに機能し、国際人道法を遵守できないLAWSを禁止する法的拘束力のある文書の締結を各国に勧告しています。こうした国際的な潮流は、Anthropicが主張する「完全自律型兵器への利用制限」と方向性を同じくしており、同社の立場に一定の正当性を与えています。

AI企業全体への影響

今回の対立は、Anthropicだけの問題ではありません。国防総省はOpenAI、Google、xAIとも同様の交渉を行っており、軍事利用に関する条件の統一を図っています。今回の件の結末は、AI業界全体が軍事分野とどのような関係を築くかを決定づける前例となる可能性があります。

注意点・展望

2月25日の会談の結果次第では、AI産業と安全保障の関係が大きく転換する可能性があります。Anthropicが制限を緩和すれば、同社の「安全性第一」というブランドイメージに傷がつく恐れがあります。一方、制限を維持すれば、サプライチェーンリスク指定という前例のない制裁に直面し、米国政府との関係が全面的に悪化するリスクがあります。

注意すべきは、Claudeが米軍の機密ネットワーク上で唯一利用可能なAIモデルである以上、国防総省にとってもAnthropicを完全に排除することは容易ではないという点です。双方にとって、交渉の余地は残されていると見るべきでしょう。また、AI技術の急速な進化に法整備が追いついていない現状において、民間企業の自主規制と政府の規制のどちらが適切かという根本的な問いが、今後も議論され続けることになります。

まとめ

ヘグセス国防長官によるAnthropicアモデイCEOの召喚は、AI技術の軍事利用を巡る倫理と安全保障の対立が新たな局面に入ったことを象徴しています。完全自律型兵器と大規模監視という2つのレッドラインを維持するAnthropicと、「あらゆる合法的な用途」を求める国防総省の溝は深く、最大2億ドルの契約やサプライチェーンリスク指定といった重大な問題が絡み合っています。今回の会談の行方は、AI産業と軍事の関係を規定する重要な転換点となるでしょう。

参考資料:

関連記事

最新ニュース