Research

Research

by nicoxz

トランプ政権がAnthropicを排除、AI軍事利用の分水嶺

by nicoxz
URLをコピーしました

はじめに

2026年2月27日、トランプ米大統領は連邦政府機関に対し、AI開発大手Anthropic(アンソロピック)の製品の使用を「即時停止」するよう命じました。同時に、ピート・ヘグセス国防長官はAnthropicを「サプライチェーンリスク」に指定し、同社の技術を米軍および軍需産業から事実上排除する措置を発表しました。

この決定の背景にあるのは、Anthropicが自社AIモデル「Claude」の軍事利用に倫理的な制限を設けたことへの政権側の反発です。一方、同じ日にOpenAI(オープンAI)は国防総省との新たなAIモデル提供契約を発表し、AI業界における国家と企業の関係が大きな転換点を迎えています。本記事では、この一連の出来事の経緯、背景にある論点、そして今後の展望について独自に調査した情報をもとに解説します。

Anthropicと国防総省の対立――何が起きたのか

2億ドル契約とAI倫理の「レッドライン」

Anthropicは2025年7月に国防総省と最大2億ドル規模の契約を締結し、主力AIモデル「Claude」を機密環境で利用できるようにしていました。しかし、同社はこの契約にあたって「利用規約(Acceptable Use Policy)」の中に明確な制限を設けていました。その核心は2つの「レッドライン」です。

1つ目は、完全自律型の致死兵器システムへのAI利用の禁止です。Anthropicの立場は、現在のフロンティアAIモデルは完全自律型の兵器を制御するには信頼性が不十分であり、人間の判断を介さない殺傷行為にAIを用いるべきではないというものでした。

2つ目は、米国市民に対する大規模な国内監視へのAI利用の禁止です。Anthropicは、国内の大量監視は民主主義の価値観と相容れないとして、この用途を明確に拒否しました。

CNNの報道によると、Anthropicはこれらの制限条件が「これまで一度も実際の政府ミッションに影響を及ぼしたことはない」と主張し、あくまで予防的な倫理的枠組みであると説明していました。

ヘグセス国防長官の最後通告

2026年2月に入ると、状況は急速に緊迫化します。ヘグセス国防長官はAnthropicのダリオ・アモデイCEOに対し、AIモデルを「すべての合法的な目的」に無制限で利用できるよう、安全対策の制限を完全に撤廃するよう要求しました。Fortuneの報道によれば、国防総省はアモデイCEOを「嘘つき」「神コンプレックスの持ち主」と非難し、2月27日金曜午後5時1分を期限とする最後通告を突きつけました。

アモデイCEOはCBSニュースのインタビューで、「良心に従えば、彼らの要求に応じることはできない」と明言。フロンティアAIモデルは完全自律型兵器を制御するには十分な信頼性がなく、大規模な国内監視は民主主義の価値観と両立しないと改めて主張しました。さらにAnthropicは声明で、「国防省からのいかなる脅迫や処罰も、大規模な国内監視や完全自律型兵器に関する我々の立場を変えることはない」とし、サプライチェーンリスク指定に対しては法的に異議を申し立てる方針を示しました。

OpenAIの国防総省契約と広がる波紋

数時間で成立した新契約

Anthropicとの交渉が決裂したわずか数時間後、OpenAIのサム・アルトマンCEOは国防総省との新たな契約を発表しました。Yahoo Financeの報道によると、OpenAIはAnthropicが手放した2億ドル規模の契約を引き継ぐ形で、機密環境における米軍へのAIモデル提供に合意しました。

注目すべきは、OpenAIがこの契約に盛り込んだ安全対策の内容です。NPRの報道によれば、OpenAIは3つの主要な制限を設定しました。大規模な国内監視への使用禁止、自律型兵器システムの指揮への使用禁止、そして高リスクの自動化された意思決定への使用禁止です。さらに、OpenAIは自社のセーフティスタック(安全性管理体制)に対する完全な裁量権を保持し、クラウド経由のデプロイ、セキュリティクリアランスを持つOpenAI社員の関与、そして強力な契約上の保護措置を確保しているとしています。

Axiosの報道が指摘するように、OpenAIが国防総省と合意した制限条件は、皮肉にもAnthropicが交渉で求めていたものとほぼ同じ内容でした。

「Cancel ChatGPT」運動と契約修正

しかし、OpenAIの迅速な動きは世論の強い反発を招きました。Anthropicが倫理的立場を貫いて政府から排除された直後に、そのポジションを奪い取ったように見えたからです。ソーシャルメディア上では「Cancel ChatGPT」「QuitGPT」といった不買運動が急速に拡大しました。

Euronewsの報道によると、「QuitGPT」運動は150万人以上がサブスクリプションの解約やボイコットメッセージの共有などの行動を起こしたと主張しています。RedditやX(旧Twitter)では、ChatGPTの有料プランを解約するスクリーンショットを共有するユーザーが相次ぎました。

この反発を受け、アルトマンCEOは3月3日にCNBCのインタビューで「あの契約は確かに急ぎすぎで、見た目が日和見的でずさんだった」と認め、契約を修正すると発表しました。Axiosのスクープによれば、修正された契約には「AIシステムは米国の個人および国民に対する国内監視のために意図的に使用してはならない」という文言が追加されました。さらに重要な点として、当初の契約では「プライベート情報」のみが保護対象でしたが、修正版では「商業的に取得された個人情報または識別可能な情報」も明示的に保護対象に含まれるようになりました。

注意点・展望

今回の一連の出来事は、AI技術の軍事利用をめぐる国家と企業の関係に、いくつかの重要な問いを投げかけています。

第一に、AI企業が政府契約において倫理的な利用制限を設ける権利はどこまで認められるのかという問題です。Nextgov/FCWの報道では、法律専門家の間でもこの点について見解が分かれています。通常の国防契約では、政府が用途に関する最終的な裁量権を持つことが一般的ですが、AIのような新興技術においてはこの前例がそのまま適用されるかは不透明です。

第二に、Anthropicの排除が同社の存続にどのような影響を及ぼすかです。連邦政府からの全面排除に加え、サプライチェーンリスク指定は通常、外国の敵対勢力に対して適用される措置であり、民間の軍需企業もAnthropicとの取引を停止する必要が生じます。しかし一方で、一般消費者の支持は逆に高まっています。Anthropicの「Claude」アプリはApple App Storeで米国1位に急浮上し、ChatGPTとGoogle Geminiを抜き去りました。CNBCによれば、Anthropicの無料ユーザーベースは1月以降60%以上増加し、日次のサインアップ数は11月以降3倍になっています。

第三に、今回の前例が他のテック企業の行動にどう影響するかです。政府の要求に従わない企業が排除されるという明確なシグナルが発信されたことで、他のAI企業が同様の倫理的立場を取ることを躊躇する可能性があります。

まとめ

トランプ政権によるAnthropicの連邦政府利用禁止とOpenAIの国防総省契約締結は、AI技術の軍事利用をめぐる国家と企業の関係が新たな段階に入ったことを示しています。Anthropicは自律型兵器と大規模監視というAI倫理上の「レッドライン」を守り通しましたが、政府から排除されるという重い代償を支払いました。一方、OpenAIは同様の制限を契約に盛り込みながらも政府との関係を維持する道を選びましたが、世論からの激しい批判にさらされています。

AIが安全保障において不可欠な技術となりつつある現在、企業の倫理方針と国家の安全保障上の要求をどのように両立させるかは、単なる一企業の問題ではなく、民主主義社会全体が向き合うべき課題といえるでしょう。今後の法的闘争や政策議論の行方を注視していく必要があります。

参考資料:

関連記事

最新ニュース