Research

Research

by nicoxz

ヘグセス国防長官がAnthropicに最後通牒、AI軍事利用で全面対立

by nicoxz
URLをコピーしました

はじめに

2026年2月24日、ピート・ヘグセス米国防長官がAI開発企業Anthropic(アンソロピック)のダリオ・アモデイCEOを国防総省に呼び出し、直接面会しました。議題はAIの軍事利用を巡る根本的な方針の相違です。国防総省はAnthropicのAIモデル「Claude」をあらゆる合法的な軍事目的に使いたいと考えていますが、Anthropicは自律型兵器と米国市民への大規模監視という2つの用途について譲れない一線を引いています。ヘグセス長官は27日金曜の夕方までに制限を撤廃しなければ、2億ドル規模の契約解除に加え、冷戦時代に制定された国防生産法の発動まで示唆しました。AI技術の倫理と国家安全保障が真正面から衝突した、前例のない事態を詳しく解説します。

対立の背景:マドゥロ作戦が引き金に

ベネズエラ作戦でのClaude使用が発覚

今回の対立には直接的な引き金があります。2026年1月、米軍がベネズエラのニコラス・マドゥロ大統領を拘束する作戦を実施した際、AnthropicのAIモデルClaudeが作戦中に使用されていたことが明らかになりました。ClaudeはPalantir(パランティア)社を通じて軍に提供されており、衛星画像の解析や情報分析に活用されていたとされています。

この事実を知ったAnthropicの幹部がPalantirの幹部に問い合わせを行ったところ、Palantir側はAnthropicが軍事利用に否定的な姿勢を示していると受け取り、国防総省に報告しました。この一件が両者の緊張関係を一気に表面化させることになったのです。

2億ドル契約の経緯

国防総省は2025年夏、フロンティアAI技術を国家安全保障に活用するため、Anthropic、Google、OpenAI、xAIの4社とそれぞれ最大2億ドル規模の契約を締結しました。このうちAnthropicのClaudeは、最も高度かつ安全性が高いモデルとして評価され、機密業務での使用が最初に認められた唯一のモデルでした。しかし、Anthropicが独自に設けた利用制限が、国防総省との間で次第に摩擦を生むようになります。

国防総省CTOの批判

対立は2月中旬から公然と激化しています。国防総省のエミル・マイケルCTO(最高技術責任者)は、Anthropicが軍のAI利用を制限することは「民主的ではない」と批判しました。国防総省の立場は明確で、合法的な用途であれば、一民間企業がその使用範囲を制限すべきではないという主張です。一方、Anthropicは2025年12月の契約交渉の段階で、ミサイル防衛やサイバー防衛への利用は認めると歩み寄りを示していましたが、自律型兵器と大規模監視の2点については一貫して拒否しています。

面会の詳細と国防生産法の脅し

穏やかな空気の中で突きつけられた最後通牒

2月24日火曜日に行われたヘグセス長官とアモデイCEOの面会は、関係者によると「礼儀正しく穏やか」な雰囲気で進行したとされています。声を荒げる場面はなかったものの、その内容は極めて重大でした。ヘグセス長官は、Claudeの軍事利用における一切の制限を27日金曜の午後5時1分までに撤廃するよう要求しました。

国防総省の高官はメディアに対し、「期限までに参加するかしないか」を明確にするよう迫ったと語っています。Anthropicが要求に応じない場合、国防総省は3つの強硬手段を用意しています。第一に、2億ドル規模の契約の即時解除です。第二に、Anthropicを「サプライチェーンリスク」に指定することです。この指定は通常、中国のHuaweiのような敵対的外国企業に対して適用されるもので、指定を受ければ軍事契約を持つすべての企業がAnthropicの製品を業務で使用することを禁じられます。

国防生産法とは何か

第三の手段として示唆されたのが、国防生産法(Defense Production Act)の発動です。これは朝鮮戦争時代の1950年に制定された法律で、大統領に対して国防上の必要から民間産業に生産や技術提供を命じる広範な権限を付与するものです。この法律は何度も延長され、直近では2026年9月まで有効です。

法律の専門家は、ヘグセス長官が示唆しているのは同法第1章の「強制権限」であると分析しています。これが発動されれば、Anthropicは自社の方針にかかわらず、国防総省が求める条件でAI技術を提供することを法的に義務づけられます。AI企業に対してこの法律を適用した前例はなく、法律専門メディアのLawfareは「極めて大きなエスカレーション」と評しています。

Anthropicの姿勢は変わらず

こうした強硬な要求に対し、アモデイCEOは面会の場でAnthropicの基本方針を改めて説明しました。具体的には、Claudeをミサイル防衛に活用できることを強調しつつ、自律型兵器と大規模国内監視については譲歩しない姿勢を示しました。Anthropicの主張の核心は2つあります。第一に、現在のAI技術は致死的な自律判断を下せるほど信頼性が高くないという技術的な理由です。第二に、AIによる大規模監視は従来の防衛製品では存在しなかったリスクを大幅に拡大するという倫理的な理由です。関係者によれば、Anthropicは国防総省の要求に応じる計画はないとしています。

他のAI企業との温度差と業界への波及

孤立するAnthropic

今回の対立でAnthropicの立場を一層難しくしているのが、競合他社との姿勢の違いです。OpenAIやGoogleは、自社のAIツールを「あらゆる合法的な用途」で軍が使用することにすでに同意しています。さらにイーロン・マスク氏のxAIは、機密業務での使用も今週承認されました。つまり、軍事利用に明確な制限を設けているのはAnthropicだけという状況です。ヘグセス長官やトランプ政権の関係者はAnthropicの姿勢を「ウォーク(woke)なAI」と呼んで批判しており、政治的な圧力も強まっています。

安全方針の変更が波紋

対立が最高潮に達した2月25日、Anthropicは自社の安全方針「責任あるスケーリングポリシー」を改定しました。従来のポリシーでは、安全手順が追いつかない場合はAIモデルの開発を停止すると明言していましたが、改定後は「競合他社に対して大きなリードがあり、壊滅的なリスクが重大な場合にのみ開発を遅らせる」という条件付きの表現に変更されました。この改定はアモデイCEOと取締役会の全会一致で承認されています。

Anthropicは、この変更は国防総省との交渉とは無関係で、競争環境の変化への対応だと説明しています。しかし、タイミングの一致から、業界内外で両者の関連を指摘する声が相次いでいます。改定の理由としてAnthropicが挙げたのは、能力の閾値からリスクを判断することの曖昧さ、反規制的な政治環境、そして業界全体の協調なしには高レベルの安全要件を満たすことが困難であるという3点です。

防衛産業全体への影響

Anthropicが「サプライチェーンリスク」に指定された場合、影響はAnthropicだけにとどまりません。軍事契約を持つすべての企業がClaudeを業務で使用できなくなるため、社内業務にClaudeを組み込んでいる防衛関連企業やIT企業にまで波及する可能性があります。これは事実上、Anthropicを防衛産業のエコシステムから完全に排除することを意味します。

注意点・今後の展望

この対立は、AI技術の発展がもたらす根本的な問題を浮き彫りにしています。国家安全保障のためにあらゆる技術を活用したい政府と、技術の悪用を防ぎたいAI開発企業との間で、どこに線を引くべきかという問いに明確な答えはまだありません。

注目すべきは、国防生産法がAI企業に適用された前例がない点です。仮に発動された場合、法的な争いに発展する可能性も指摘されています。また、この対立の行方は他のAI企業の方針にも大きな影響を与えます。Anthropicが屈すれば、AI安全性を重視する企業文化そのものが揺らぎかねません。逆にAnthropicが姿勢を貫いた場合、政府との関係悪化による事業リスクが現実化します。

27日金曜の期限が目前に迫る中、Anthropicが方針を維持するのか、何らかの妥協点を見出すのか、あるいは国防生産法の発動という前代未聞の事態に発展するのか、世界中のAI業界と安全保障関係者が注視しています。

まとめ

ヘグセス米国防長官とAnthropicのアモデイCEOの面会は、AI技術の軍事利用を巡る対立を決定的なものにしました。国防総省は「あらゆる合法的な用途」での無制限使用を求め、Anthropicは自律型兵器と大規模監視への利用を拒否しています。2億ドルの契約解除やサプライチェーンリスク指定、さらには国防生産法の発動まで示唆される異例の事態は、AI時代における技術倫理と国家安全保障の均衡点をどこに置くかという、社会全体で向き合うべき課題を私たちに突きつけています。

参考資料

関連記事

最新ニュース