Research

Research

by nicoxz

米国防総省とAnthropic対立激化、AI軍事利用の境界線

by nicoxz
URLをコピーしました

はじめに

米国防総省と人工知能(AI)企業Anthropicの対立が、かつてない緊張状態に達しています。ピート・ヘグセス国防長官は2026年2月24日、AnthropicのダリオDario・アモデイCEOを国防総省に呼び出し、AI技術の軍事利用を巡る直接交渉を行いました。

国防総省はAnthropicに対し、同社のAIモデル「Claude」の利用制限を撤廃するよう求めていますが、Anthropicは自律型兵器と大規模監視への利用について譲歩しない姿勢を示しています。この対立は、AI技術の軍事活用をめぐる倫理的・法的な論点を浮き彫りにしており、テクノロジー業界全体にとっても重要な転換点です。

国防総省の要求とAnthropicの立場

2億ドル契約と「すべての合法的用途」

Anthropicは2025年7月、国防総省と最大2億ドル(約300億円)規模の契約を締結しました。この契約により、米軍はAnthropicのAIモデル「Claude」を業務に活用できるようになっています。しかし、国防総省は同契約の条件に不満を抱いています。

国防総省が求めているのは、Claudeを「すべての合法的用途」に制限なく使用できることです。一方、Anthropicは独自の倫理基準を設けており、特に2つの領域について明確な「レッドライン」を引いています。それが自律型兵器の開発と、米国市民に対する大規模監視です。

Anthropicが譲れない2つの原則

アモデイCEOは、AIが十分に信頼できるレベルに達していない現段階で、完全自律型の武装ドローンなどにAIを利用することは危険だと主張しています。人間の関与なしに発砲するシステムは、技術的な誤作動だけでなく、国際人道法上の問題も引き起こす可能性があります。

もう1つの原則は、AIを使った米国市民への大規模監視の拒否です。アモデイ氏は、AI技術が反体制的な意見を追跡するために悪用されるリスクを指摘しています。これらの原則についてAnthropicは妥協する意思がないことを明確にしています。

金曜日の最後通牒と国防生産法

ヘグセス長官が突きつけた期限

ヘグセス長官は会談後、Anthropicに対し2月28日(金曜日)午後5時1分までに制限撤廃に同意するよう最後通牒を突きつけました。Axiosの報道によると、国防総省関係者は「乗るか降りるか」を迫っており、従わない場合は国防生産法(Defense Production Act)を発動するとしています。

国防生産法は、国家安全保障上の理由から民間企業に特定の行動を強制できる連邦法です。トランプ政権時代にパンデミック対応で発動された実績がありますが、AI企業の安全基準を巡って同法を適用するのは前例のないことです。

「サプライチェーンリスク」指定の脅威

Axiosの先行報道によると、国防総省は2月中旬の段階で既にAnthropicを「サプライチェーンリスク」に指定する可能性を示唆していました。この指定を受けた場合、Anthropicは連邦政府全体との取引が実質的に不可能になります。これは企業にとって壊滅的な打撃を意味し、事実上の「追放」とも言える措置です。

AI軍事利用をめぐる業界の構図

他のAI企業の動向

国防総省は2025年7月、Anthropicだけでなく、OpenAI、Google、xAIとも同様の2年間の契約を締結しています。各社に対して「すべての合法的用途」での利用を求めている点は共通ですが、Anthropicは他社に比べて安全性を重視する姿勢が際立っています。

また、Anthropicは2024年後半から防衛・情報機関向けにClaude の提供をPalantirと連携して進めてきました。Palantirは軍のデータ・ソフトウェア分野で主要な受注企業であり、この提携はAnthropicの防衛分野への関与を示すものです。Anthropicは軍事利用そのものを拒否しているわけではなく、あくまで利用範囲に倫理的な線引きを設けている点が重要です。

テック企業と軍の関係の変遷

かつてGoogleは2018年、社員の反発を受けて国防総省のドローン映像解析プロジェクト「Project Maven」から撤退しました。しかし近年、AI技術の軍事応用に対する業界の姿勢は変化しつつあります。多くの企業が防衛契約を積極的に受注するようになった中で、Anthropicのように明確な制限を維持する企業は少数派です。

注意点・展望

今回の対立には、いくつかの重要な論点があります。まず、国防生産法の適用は法的な訴訟に発展する可能性があります。同法はこれまで物資の生産や供給に関して適用されてきましたが、AIモデルの安全基準の変更を強制する前例はありません。

また、この問題はAnthropicだけにとどまらず、AI業界全体の規範に影響を与えます。国防総省が一企業の倫理基準を強制的に変更させることに成功すれば、他のAI企業にも同様の圧力がかかる可能性があります。

金曜日の期限後の展開が注目されます。Anthropicが姿勢を崩さない場合、国防生産法の発動や契約解除といった事態に発展する可能性があります。一方で、議会内でもAI軍事利用に関する規制議論が活発化しており、行政府の判断だけでは決着しない問題です。

まとめ

米国防総省とAnthropicの対立は、AI技術の軍事利用における倫理的境界線を問う象徴的な事案です。Anthropicは自律型兵器と大規模監視という2つのレッドラインを堅持しており、国防総省は国防生産法の発動も辞さない姿勢を示しています。

この問題は単なる1企業と政府の契約紛争ではなく、AI技術と国家安全保障の関係を根本的に規定する先例となりうるものです。金曜日の期限を控え、テック業界と安全保障の専門家が注視する中、両者の交渉の行方が今後のAI政策の方向性を左右することになるでしょう。

参考資料:

関連記事

最新ニュース