Research

Research

by nicoxz

DeepSeek等中国3社がClaudeから能力を不正抽出

by nicoxz
URLをコピーしました

はじめに

米AI開発企業のAnthropicが、中国のAI企業3社による大規模な不正行為を告発し、AI業界に衝撃が走っています。告発の対象となったのは、DeepSeek(ディープシーク)、Moonshot AI(月之暗面)、MiniMax(稀宇科技)の3社です。これらの企業がAnthropicの生成AIサービス「Claude(クロード)」から、「蒸留(ディスティレーション)」と呼ばれる技術を用いて能力を不正に抽出していたと主張しています。

3社は合計2万4000件以上の不正アカウントを作成し、1600万回を超えるやり取りをClaudeと行っていたとされます。この問題は、AI技術の知的財産保護と米中間のAI覇権競争という二つの側面から、大きな注目を集めています。

蒸留(ディスティレーション)とは何か

AIモデルの知識を移転する技術

蒸留とは、大規模で高性能なAIモデル(教師モデル)の知識を、より小規模なモデル(生徒モデル)に移転する機械学習の手法です。生徒モデルは教師モデルの出力を学習データとして使うことで、独自に開発するよりもはるかに短い時間と低いコストで、教師モデルに近い性能を獲得できます。

この技術自体は合法的な用途も多く、モデルの軽量化やエッジデバイスでの実行効率の向上に活用されています。しかし、競合他社のモデルに対して無断で実行する場合は、利用規約違反や知的財産の侵害にあたる可能性があります。

不正な蒸留の手口

今回のケースでは、3社は地域アクセス制限を回避して不正にアカウントを作成し、大量の特殊なプロンプトをClaudeに送信していました。こうした組織的なアプローチにより、Claudeが持つ推論能力やコーディング能力などを体系的に抽出していたとAnthropicは主張しています。

各社の蒸留活動の実態

MiniMaxが最大規模の1300万回

3社の中で最も大規模だったのはMiniMaxです。1300万回以上のやり取りを通じて、Claudeのエージェント型コーディング能力やツール使用機能を中心に抽出を行っていたとされます。MiniMaxは中国のAIスタートアップの中でも注目度が高く、動画生成AIなどを手がけています。

Moonshot AIは340万回

Moonshot AIは340万回以上のやり取りを実施しました。ターゲットとなったのは、エージェント型推論やツール使用、コーディングとデータ分析、コンピュータ操作エージェントの開発、コンピュータビジョンなど多岐にわたります。同社は対話型AI「Kimi」で知られる中国企業です。

DeepSeekは15万回以上

DeepSeekのやり取り回数は15万回以上と他の2社と比べて少ないものの、その内容は特徴的です。基礎的なロジックやアライメント(AIの安全性調整)の改善に加え、政治的に敏感な質問に対する検閲回避の代替回答の生成にもClaudeを活用していたとAnthropicは指摘しています。

米国AI業界からの告発が相次ぐ

OpenAIも同様の主張

Anthropicに先立ち、OpenAIも2026年2月に米国議会に対して、DeepSeekによる蒸留行為を告発する書簡を提出していました。OpenAIは、DeepSeekの従業員がアクセス制限を回避する手法を開発し、プログラムを使って組織的に出力を取得していたと主張しています。

国家安全保障への懸念

AnthropicとOpenAIはともに、この問題を国家安全保障の観点から捉えています。両社は「権威主義的な政府がフロンティアAIをサイバー攻撃や偽情報キャンペーン、大規模監視に利用する可能性がある」と警告しています。この主張は、米国が中国へのAIチップ輸出規制を議論するタイミングと重なっており、AI政策にも影響を及ぼす可能性があります。

輸出規制違反の疑いも浮上

さらに深刻な問題として、DeepSeekがNVIDIAの最新AIチップ「Blackwell」を使用してモデルを訓練していた疑いも報じられています。これが事実であれば、米国の対中輸出規制に違反する可能性があり、問題はさらに複雑化しています。

注意点・展望

この問題をめぐっては、いくつかの注意点があります。まず、蒸留行為の法的な位置づけはまだ明確ではありません。利用規約違反であることは明白ですが、知的財産侵害として法的に追及できるかどうかは議論の余地があります。

また、米国AI企業の主張が純粋な安全保障上の懸念なのか、それとも競争優位を維持するための戦略的な動きなのか、見極める必要があります。米中AI競争が激化する中で、こうした告発が貿易政策や輸出規制にどう反映されるかが注目されます。

今後は、AIモデルの不正利用を検出・防止するための技術的対策がますます重要になるでしょう。Anthropicは不正アカウントを検出しブロックする対策を講じていますが、蒸留の手口が高度化すれば、いたちごっこになる可能性もあります。

まとめ

中国AI企業3社によるClaudeへの大規模蒸留攻撃は、AI業界における知的財産保護の課題を浮き彫りにしました。2万4000件の不正アカウントと1600万回以上のやり取りという規模は、個人的な行為ではなく組織的な活動であることを示しています。

この問題は、AI技術の急速な発展に対して法制度や国際的なルール作りが追いついていない現状を象徴しています。企業レベルの対策だけでなく、国際的な枠組みでのAI知的財産保護の議論が急務となっています。

参考資料:

関連記事

最新ニュース