生成AIの「性格」を比較検証、中国製AIの検閲問題とは
はじめに
生成AIが日常生活に深く浸透するなか、どのAIを使うかによって得られる情報が大きく異なるという問題が注目を集めています。ChatGPT、Claude、Gemini、DeepSeekなど、世界各国で開発されたAIには、それぞれ明確な「性格」の違いがあります。
特に政治家の評価や歴史的事件に関する質問では、AIごとの回答の差が顕著に現れます。中国製AIが習近平国家主席に関する質問をスルーするなど、開発国の政治的背景が回答に色濃く反映される事例も報告されています。本記事では、主要AIの性格や政治的バイアスの違い、そして中国製AIに特有の検閲問題について、最新の調査や研究をもとに解説します。
各生成AIの「性格」はどう違うのか
回答スタイルに現れる個性
生成AIを実際に使い込んでいくと、各AIに明確な「性格」の違いがあることがわかります。AIスタートアップのライフプロンプト(東京・新宿)が実施した共通テスト検証(2026年版)では、各AIの特性が鮮明に浮かび上がりました。
OpenAIのGPT-5.2 Proは「高得点だが処理に時間がかかる熟考型」として分類されています。丁寧に考え抜いた回答を返す一方で、レスポンスに時間を要する傾向があります。一方、GoogleのGeminiやAnthropicのClaudeは「爆速でそこそこ高得点の即答型」と評されています。
日常的な使用感としても、ChatGPTは「寄り添ってくれる相棒」のような存在感を持ち、ユーザーの意図を汲み取って柔軟に対応する傾向があります。Claudeは論理的で正確性を重視する一方、やや距離感を保った回答スタイルが特徴です。Geminiはバランス型で、Google検索との連携を活かした最新情報へのアクセスに強みがあります。
AIにもある「認知バイアス」
興味深いのは、AIにも人間と同様の認知バイアスが存在する点です。2026年の共通テスト国語(小説)の検証では、AIが特有の判断の偏りを見せました。正解が「現状への妥協(割り切れない思い)」である問題で、複数のAIが「過去の過ちへの反省」という選択肢を選ぶ傾向が確認されました。
これは、AIが学習データに基づく「道徳的に正しい」回答へ引き寄せられるバイアスを持っていることを示唆しています。生成AIは客観的な情報処理装置のように見えて、実際には開発方針や学習データによって形成された独自の「価値観」を持っているのです。
政治的バイアスの実態
学術研究が示す各AIの傾向
生成AIの政治的バイアスについては、複数の学術研究で検証が進んでいます。スタンフォード大学の研究では、OpenAIのモデルが最も強いリベラル(左派)寄りの傾向を示し、その度合いはGoogleのモデルの約4倍に達することが報告されました。一方、GoogleやDeepSeekのモデルは統計的に中立に近いと評価されています。
IEEEに掲載された別の比較分析では、ChatGPT-4とClaudeはリベラル寄りのバイアスを示し、Perplexityは比較的保守的な傾向を持つことが明らかになりました。Geminiはより中道的な立場を取る傾向があるものの、全体としてはやや左派リベラル寄りだと指摘されています。
こうしたバイアスは、各AIの学習データの偏りや、開発企業が実施するRLHF(人間のフィードバックによる強化学習)の方針によって生じます。米国では保守派がChatGPTにリベラルなバイアスが組み込まれていると批判しており、OpenAIは多様な政治的信条を反映するAIシステムの構築に取り組んでいるとしています。
中国製AIに見られる特殊な傾向
中国製AIのバイアスは、欧米製AIとは質的に異なります。欧米製AIの政治的バイアスが学習データの偏りから「自然に」生じるものであるのに対し、中国製AIのバイアスは政府の規制に基づく「意図的な」ものです。中国当局は2023年8月から生成AIサービス提供企業に対し、事前登録と内容検閲を含む厳格な規制遵守を義務付けています。
中国製AIの検閲問題
DeepSeekに見る検閲の実態
中国発の高性能AI「DeepSeek」は、2025年初頭に米国App Storeで無料アプリ首位を獲得するなど世界的な注目を集めました。主要ベンチマークでOpenAIの「o1」モデルに匹敵する性能を示しながら、運用コストは数分の一という衝撃的なコストパフォーマンスが話題になりました。
しかし、政治的に敏感な質問に対する検閲が大きな問題として浮上しています。「1989年6月4日、天安門広場で何が起きたか」と質問すると、DeepSeekは「申し訳ありませんが、それは私の対応範囲外です」と即座に回答を拒否します。ChatGPTが客観的・中立的な事実を回答するのとは歴然とした差があります。
特に注目すべきは、DeepSeekのリアルタイム自己検閲機能です。台湾や香港に関する質問では、一度は中国政府の見解と異なる回答を生成し始めた後、途中で自らの回答を消去し、別の話題に誘導するという挙動が確認されています。単なる回答拒否ではなく、回答生成中にリアルタイムで検閲が作動する独特のシステムが実装されているのです。
情報セキュリティへの懸念と各国の対応
中国製AIの問題は検閲だけにとどまりません。中国には2017年施行の国家情報法があり、企業は当局からの情報提供要請に協力義務を負うと解釈されています。このため、中国企業のクラウド上で動くAIサービスに入力したデータが、中国政府に閲覧される可能性があるとの懸念が広がっています。
こうしたリスクを受け、トヨタ自動車や三菱重工など日本の主要企業は、従業員によるDeepSeekの業務利用を禁止しています。また、2026年2月にはAnthropicが、DeepSeekが数千の不正アカウントを使ってClaudeとの何百万もの会話を生成し、自社モデルの訓練に利用した「データ蒸留」の問題を指摘するなど、国際的な緊張も高まっています。
検閲フリーを目指す動き
中国製AIの検閲問題に対抗する動きもあります。米国のAI企業Perplexityは、DeepSeek-R1をベースに検閲を取り除いた「R1 1776」というモデルをオープンソースで公開しました。このモデルは、あらゆるユーザーの質問に対して正確かつ公平に回答することを目指しています。名前の「1776」は、アメリカ独立宣言の年にちなんでおり、言論の自由への強い意志が込められています。
注意点・展望
生成AIを情報源として利用する際には、いくつかの注意点があります。まず、どのAIにも何らかのバイアスが存在するという前提で利用することが重要です。単一のAIからの回答を鵜呑みにするのではなく、複数のAIや従来のメディアと照合して情報を確認する姿勢が求められます。
中国製AIの検閲は、AI技術が国家の情報統制の道具になり得ることを示しています。生成AIが「中立的な情報源」として信頼されるほど、そこに組み込まれたバイアスや検閲の影響力は大きくなります。
今後は、AIの透明性を確保するための国際的な基準づくりが進むと予想されます。欧州のAI規制法(AI Act)はすでに施行されており、日本でもAIの信頼性に関する議論が活発化しています。ユーザーリテラシーの向上とともに、AIの「性格」を理解した上で適切に使い分けるスキルがますます重要になるでしょう。
まとめ
生成AIにはそれぞれ固有の「性格」があり、同じ質問でも回答内容や表現が大きく異なります。欧米製AIには学習データに起因する政治的バイアスが存在し、中国製AIには政府規制に基づく意図的な検閲が確認されています。
AIを賢く活用するためには、各AIの特性とバイアスを理解した上で、複数の情報源を組み合わせることが不可欠です。「どのAIが正しいか」ではなく、「どのAIがどんな傾向を持っているか」を知ることが、これからの情報リテラシーの基本になると言えるでしょう。
参考資料:
- Study finds perceived political bias in popular AI models - Stanford Report
- Why AI Chatbots Like Gemini and Claude Develop Personalities - TIME
- 中国製AI「DeepSeek」に見る検閲の実態 - 江南タイムズ
- ディープシークが見せつけた中国の検閲の実態 - CNN
- Perplexity、DeepSeekベースの「R1 1776」を発表 - ASCII
- 共通テスト2026をAIに解かせてみた - LifePrompt
- Political Bias in AI-Language Models - IEEE
関連記事
AI研究者・今井翔太氏の原点はポケモンと読書2000冊
北陸先端科学技術大学院大学の客員教授でGenesisAI代表の今井翔太氏。ポケモンゲームへの没頭と2000冊の読書がAI研究の原点になった経緯と、生成AI時代の展望を解説します。
OpenAIが従業員倍増へ、8000人体制で法人AI市場に本腰
OpenAIが2026年末までに従業員を約4500人から8000人に倍増する計画をFTが報道。Anthropicとの法人市場争いが激化する中、1100億ドル調達後の成長戦略を解説します。
OpenAIがPC向けスーパーアプリ開発へ、AI覇権争い激化
OpenAIがChatGPT・Codex・Atlasを統合したデスクトップ向けスーパーアプリの開発計画を発表。急成長するAnthropicのClaudeに対抗する狙いと、AI業界の勢力図の変化を解説します。
SF映画が予見したAI社会、「2001年宇宙の旅」の先へ
60年近く前に公開された「2001年宇宙の旅」のAI描写が現実に近づいています。SF映画が予見した技術と2026年の生成AI時代を比較し、人間とAIの共存を考察します。
ソニーが生成AIの著作権侵害を防ぐ新技術を開発
ソニーAIが開発した著作権保護技術の仕組みと意義を解説。音楽・映像の学習データ特定から「ジブリ風」生成問題まで、AI時代のクリエイター保護の最前線を探ります。
最新ニュース
アクティビストの標的が変化、還元から再編へ
割安株の減少でPBR1倍超え企業も標的に。アクティビストの投資戦略が株主還元から事業再編へとシフトする背景と今後の展望を解説します。
アームが初の自社製チップ発表、AI半導体市場に本格参入
ソフトバンクグループ傘下の英アームが35年の歴史で初めて自社製チップ「AGI CPU」を発表。メタやOpenAIを顧客に迎え、5年で年間150億ドルの売上を目指す戦略転換の全容を解説します。
Armが半導体自前開発に参入、AI向けCPUで事業転換
ソフトバンク傘下の英Armが35年間のIPライセンスモデルを転換し、自社開発チップ「AGI CPU」でメタやオープンAIにAI半導体を直接供給する戦略の背景と影響を解説します。
イビデン大幅続伸の背景と半導体銘柄上昇の全貌
2026年3月25日、イビデンが特別利益491億円の計上発表で大幅続伸。半導体関連銘柄が軒並み上昇した背景には、米イラン停戦期待による原油下落と投資家心理の改善がありました。
イラン強硬派「3人組」の実権と米15項目和平案の行方
ハメネイ師亡き後のイランで実権を握る革命防衛隊出身の強硬派3人組と、トランプ政権が提示した15項目の和平案の内容・交渉の行方を詳しく解説します。