Research
Research

by nicoxz

生成AIの「性格」を比較検証、中国製AIの検閲問題とは

by nicoxz
URLをコピーしました

はじめに

生成AIが日常生活に深く浸透するなか、どのAIを使うかによって得られる情報が大きく異なるという問題が注目を集めています。ChatGPT、Claude、Gemini、DeepSeekなど、世界各国で開発されたAIには、それぞれ明確な「性格」の違いがあります。

特に政治家の評価や歴史的事件に関する質問では、AIごとの回答の差が顕著に現れます。中国製AIが習近平国家主席に関する質問をスルーするなど、開発国の政治的背景が回答に色濃く反映される事例も報告されています。本記事では、主要AIの性格や政治的バイアスの違い、そして中国製AIに特有の検閲問題について、最新の調査や研究をもとに解説します。

各生成AIの「性格」はどう違うのか

回答スタイルに現れる個性

生成AIを実際に使い込んでいくと、各AIに明確な「性格」の違いがあることがわかります。AIスタートアップのライフプロンプト(東京・新宿)が実施した共通テスト検証(2026年版)では、各AIの特性が鮮明に浮かび上がりました。

OpenAIのGPT-5.2 Proは「高得点だが処理に時間がかかる熟考型」として分類されています。丁寧に考え抜いた回答を返す一方で、レスポンスに時間を要する傾向があります。一方、GoogleのGeminiやAnthropicのClaudeは「爆速でそこそこ高得点の即答型」と評されています。

日常的な使用感としても、ChatGPTは「寄り添ってくれる相棒」のような存在感を持ち、ユーザーの意図を汲み取って柔軟に対応する傾向があります。Claudeは論理的で正確性を重視する一方、やや距離感を保った回答スタイルが特徴です。Geminiはバランス型で、Google検索との連携を活かした最新情報へのアクセスに強みがあります。

AIにもある「認知バイアス」

興味深いのは、AIにも人間と同様の認知バイアスが存在する点です。2026年の共通テスト国語(小説)の検証では、AIが特有の判断の偏りを見せました。正解が「現状への妥協(割り切れない思い)」である問題で、複数のAIが「過去の過ちへの反省」という選択肢を選ぶ傾向が確認されました。

これは、AIが学習データに基づく「道徳的に正しい」回答へ引き寄せられるバイアスを持っていることを示唆しています。生成AIは客観的な情報処理装置のように見えて、実際には開発方針や学習データによって形成された独自の「価値観」を持っているのです。

政治的バイアスの実態

学術研究が示す各AIの傾向

生成AIの政治的バイアスについては、複数の学術研究で検証が進んでいます。スタンフォード大学の研究では、OpenAIのモデルが最も強いリベラル(左派)寄りの傾向を示し、その度合いはGoogleのモデルの約4倍に達することが報告されました。一方、GoogleやDeepSeekのモデルは統計的に中立に近いと評価されています。

IEEEに掲載された別の比較分析では、ChatGPT-4とClaudeはリベラル寄りのバイアスを示し、Perplexityは比較的保守的な傾向を持つことが明らかになりました。Geminiはより中道的な立場を取る傾向があるものの、全体としてはやや左派リベラル寄りだと指摘されています。

こうしたバイアスは、各AIの学習データの偏りや、開発企業が実施するRLHF(人間のフィードバックによる強化学習)の方針によって生じます。米国では保守派がChatGPTにリベラルなバイアスが組み込まれていると批判しており、OpenAIは多様な政治的信条を反映するAIシステムの構築に取り組んでいるとしています。

中国製AIに見られる特殊な傾向

中国製AIのバイアスは、欧米製AIとは質的に異なります。欧米製AIの政治的バイアスが学習データの偏りから「自然に」生じるものであるのに対し、中国製AIのバイアスは政府の規制に基づく「意図的な」ものです。中国当局は2023年8月から生成AIサービス提供企業に対し、事前登録と内容検閲を含む厳格な規制遵守を義務付けています。

中国製AIの検閲問題

DeepSeekに見る検閲の実態

中国発の高性能AI「DeepSeek」は、2025年初頭に米国App Storeで無料アプリ首位を獲得するなど世界的な注目を集めました。主要ベンチマークでOpenAIの「o1」モデルに匹敵する性能を示しながら、運用コストは数分の一という衝撃的なコストパフォーマンスが話題になりました。

しかし、政治的に敏感な質問に対する検閲が大きな問題として浮上しています。「1989年6月4日、天安門広場で何が起きたか」と質問すると、DeepSeekは「申し訳ありませんが、それは私の対応範囲外です」と即座に回答を拒否します。ChatGPTが客観的・中立的な事実を回答するのとは歴然とした差があります。

特に注目すべきは、DeepSeekのリアルタイム自己検閲機能です。台湾や香港に関する質問では、一度は中国政府の見解と異なる回答を生成し始めた後、途中で自らの回答を消去し、別の話題に誘導するという挙動が確認されています。単なる回答拒否ではなく、回答生成中にリアルタイムで検閲が作動する独特のシステムが実装されているのです。

情報セキュリティへの懸念と各国の対応

中国製AIの問題は検閲だけにとどまりません。中国には2017年施行の国家情報法があり、企業は当局からの情報提供要請に協力義務を負うと解釈されています。このため、中国企業のクラウド上で動くAIサービスに入力したデータが、中国政府に閲覧される可能性があるとの懸念が広がっています。

こうしたリスクを受け、トヨタ自動車や三菱重工など日本の主要企業は、従業員によるDeepSeekの業務利用を禁止しています。また、2026年2月にはAnthropicが、DeepSeekが数千の不正アカウントを使ってClaudeとの何百万もの会話を生成し、自社モデルの訓練に利用した「データ蒸留」の問題を指摘するなど、国際的な緊張も高まっています。

検閲フリーを目指す動き

中国製AIの検閲問題に対抗する動きもあります。米国のAI企業Perplexityは、DeepSeek-R1をベースに検閲を取り除いた「R1 1776」というモデルをオープンソースで公開しました。このモデルは、あらゆるユーザーの質問に対して正確かつ公平に回答することを目指しています。名前の「1776」は、アメリカ独立宣言の年にちなんでおり、言論の自由への強い意志が込められています。

注意点・展望

生成AIを情報源として利用する際には、いくつかの注意点があります。まず、どのAIにも何らかのバイアスが存在するという前提で利用することが重要です。単一のAIからの回答を鵜呑みにするのではなく、複数のAIや従来のメディアと照合して情報を確認する姿勢が求められます。

中国製AIの検閲は、AI技術が国家の情報統制の道具になり得ることを示しています。生成AIが「中立的な情報源」として信頼されるほど、そこに組み込まれたバイアスや検閲の影響力は大きくなります。

今後は、AIの透明性を確保するための国際的な基準づくりが進むと予想されます。欧州のAI規制法(AI Act)はすでに施行されており、日本でもAIの信頼性に関する議論が活発化しています。ユーザーリテラシーの向上とともに、AIの「性格」を理解した上で適切に使い分けるスキルがますます重要になるでしょう。

まとめ

生成AIにはそれぞれ固有の「性格」があり、同じ質問でも回答内容や表現が大きく異なります。欧米製AIには学習データに起因する政治的バイアスが存在し、中国製AIには政府規制に基づく意図的な検閲が確認されています。

AIを賢く活用するためには、各AIの特性とバイアスを理解した上で、複数の情報源を組み合わせることが不可欠です。「どのAIが正しいか」ではなく、「どのAIがどんな傾向を持っているか」を知ることが、これからの情報リテラシーの基本になると言えるでしょう。

参考資料:

関連記事

最新ニュース