Research

Research

by nicoxz

OpenAIが国防総省との契約修正、AI監視禁止を明記した背景

by nicoxz
URLをコピーしました

はじめに

米OpenAIは2026年3月2日、米国防総省(ペンタゴン)の機密システム向けAIモデル提供に関する契約内容を修正したと発表しました。修正の核心は「AIシステムを米国民の国内における監視に意図的に使用してはならない」という条項の追加です。

この契約修正は、OpenAIが国防総省と締結した契約への激しい批判を受けて行われたものです。背景には、競合のAnthropicがトランプ政権によって政府調達から排除された直後にOpenAIが契約を結んだという経緯があります。AI企業と軍事機関の関係はどうあるべきか。本記事では、一連の経緯と論争の本質を解説します。

契約締結に至る経緯

Anthropicの排除とOpenAIの参入

事態は2026年2月末に急展開しました。ピート・ヘグセス国防長官がAnthropicに対し、AIモデルを「すべての合法的な目的」に制限なく使用できるよう求めました。Anthropicはこれを拒否し、大規模な国内監視への使用禁止と自律型兵器への組み込み禁止の2つの条件を譲りませんでした。

その結果、トランプ大統領は連邦政府機関にAnthropicの製品の使用停止を命じ、ヘグセス国防長官はAnthropicを「サプライチェーンリスク」に指定しました。そして、Anthropicが排除されたわずか数時間後、OpenAIが国防総省との契約を発表したのです。

OpenAIの契約内容

OpenAIのサム・アルトマンCEOはX(旧Twitter)上で、国防総省の「機密ネットワーク」でOpenAIのモデルを使用する契約に合意したと発表しました。契約には「すべての合法的な目的」での使用を認める条項が含まれる一方、OpenAI側が主張する3つの制限も盛り込まれました。

具体的には、大規模な国内監視への使用禁止、自律型兵器システムの指揮への使用禁止、そして「社会信用スコア」のような高リスクの自動判断への使用禁止です。OpenAIは、クラウドのみの展開に限定し、自社のセーフティスタックを維持する権限を保持すると説明しました。

批判の高まりと契約修正

なぜ批判が噴出したのか

OpenAIに対する批判は複数の方向から寄せられました。まず、アルトマンCEOが契約発表のわずか数日前にAnthropicの立場を支持する発言をしていたことが「裏切り」と受け止められました。Anthropicが拒否した「すべての合法的な目的」条項を受け入れながら、同じ制限を盛り込んだと主張する矛盾も指摘されました。

MIT Technology Reviewは、OpenAIの「妥協」はまさにAnthropicが恐れていたものだと報じました。政府機関が法律を遵守するという前提は、エドワード・スノーデンが暴露した政府機関の監視活動が内部的には「合法」と判断されていた事実を踏まえれば、十分な保証にはならないという批判です。

さらに、OpenAIの社員の多くがAnthropicの姿勢を支持する公開書簡に署名し、ChatGPTからClaudeへの乗り換えキャンペーンが広がるなど、ユーザー離れの兆候も現れました。AppleのApp Storeでは一時的にClaudeがChatGPTを抜いて最もダウンロードされた無料アプリとなりました。

アルトマンCEOの釈明と修正内容

批判の高まりを受け、アルトマンCEOは3月3日、契約が「急ぎすぎた」と認め、「見た目が日和見的でずさんだった」と釈明しました。その上で、監視に関する文言をより厳格にする契約修正を発表しました。

修正の重要なポイントは、監視禁止の対象範囲の拡大です。当初の契約では「プライベートな情報」を用いた監視のみが禁止されていました。修正後は「商業的に取得された個人情報または識別可能な情報」も対象に含まれるようになりました。これにより、データブローカーから購入した位置情報、ウェブ閲覧履歴、金融情報などを用いた監視も明確に禁止されます。

追加条項では、国防総省が「米国市民や米国籍者に対する意図的な追跡、監視、またはモニタリング」に商業データの収集・使用を含む形でAIを利用することを禁じています。

AI軍事利用を巡る論争の本質

「すべての合法的な目的」の問題

今回の論争の核心は、「すべての合法的な目的」という文言の解釈にあります。Anthropicが拒否したのは、この文言が事実上無制限の使用を許容するリスクがあるためです。法的に「合法」であっても倫理的に問題のある使い方は数多く存在します。

Nextgov/FCWの報道によれば、政府契約におけるAI企業の権利は未開拓の領域であり、企業が自社技術の使用方法にどこまで制限を課せるのかという根本的な問いが提起されています。

契約の透明性の問題

OpenAIは、政府の規則により契約の全文を公開できないと説明しています。機密システム向けの契約であるため、監視禁止条項が実際にどの程度の拘束力を持つのかを第三者が検証することは困難です。

Axiosの報道では、OpenAIが主張する制限と実際の契約文言の間にギャップがある可能性が指摘されています。クラウドのみの展開でセーフティスタックを維持するというOpenAIの説明も、機密ネットワーク内でどのように機能するのかは不透明です。

注意点・展望

AI企業と政府の関係の変化

今回の一件は、AI企業と政府の関係がこれまでにない段階に入ったことを示しています。トランプ政権がAnthropicを排除したように、AI技術が国家安全保障上の重要資産と位置づけられるなか、政府の要求に従わない企業は排除されるリスクがあります。

一方で、ユーザーや社員からの反発は、AI企業が政府の要求をそのまま受け入れることの代償も示しています。OpenAIの契約修正は、企業が商業的利益と倫理的責任のバランスをどう取るかという課題を浮き彫りにしました。

今後の注目ポイント

修正された契約が実質的な歯止めとなるかどうかは、今後の運用次第です。特に、機密ネットワーク内でのAI使用状況を誰がどのように監視するのかが重要な論点となります。また、Anthropicの政府調達からの排除が今後も継続するのか、他のAI企業がどのような対応を取るのかにも注目が集まります。

まとめ

OpenAIと国防総省の契約修正は、AI技術の軍事利用における倫理的・法的な課題を浮き彫りにしました。「米国民への監視禁止」の明記は一歩前進ですが、機密契約の性質上、その実効性の検証は容易ではありません。

Anthropicの排除からOpenAIの契約締結、そして批判を受けての修正という一連の流れは、AI企業が国家権力とどう向き合うかという重要な先例となります。技術の進化とともに、AIの軍事利用に関するルール作りが国際的に急務となっています。

参考資料:

関連記事

最新ニュース