Research

Research

by nicoxz

内閣府AI原則「プリンシプル・コード」の課題と企業への影響

by nicoxz
URLをコピーしました

はじめに

内閣府が2025年12月に公表した生成AIの知的財産保護に関する新ルール案「プリンシプル・コード」が波紋を広げています。AI事業者に対して学習データの詳細開示や著作権保護措置を求める内容ですが、「対応困難」「現実離れ」との批判がAI事業者から上がっています。

一方、クリエイターや権利者団体からは、無断学習による権利侵害を抑止する効果を期待する声もあります。しかし、外国企業への実効性に疑問が呈されており、「真面目に対応する国内企業だけが損をする」という構図への懸念が強まっています。

この記事では、プリンシプル・コードの内容を詳しく解説し、AI事業者とクリエイター双方の視点から課題を分析します。

プリンシプル・コードとは何か

策定の背景と目的

「生成AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード」は、内閣府知的財産戦略推進事務局が策定を進めるソフトロー(法的拘束力のない指針)です。2025年12月26日に素案が公表され、2026年1月26日までパブリックコメントが募集されました。

策定の目的は、AI技術の進歩促進と知的財産権の適切な保護の両立です。2025年5月に成立した「人工知能関連技術の研究開発及び活用の推進に関する法律」(AI推進法)の趣旨を踏まえつつ、EUのAI法における透明性確保の取り組みを参考にしています。

「コンプライ・オア・エクスプレイン」方式

プリンシプル・コードは、コーポレートガバナンスの分野で用いられる「コンプライ・オア・エクスプレイン」方式を採用しています。これは「原則を遵守するか、遵守しない場合はその理由を説明せよ」という柔軟な仕組みです。

法的な強制力はありませんが、原則に従わない場合は説明責任が生じます。投資家や取引先からの信頼を得るためには、事実上の遵守が求められる構造となっています。

対象となる事業者

このコードの対象は「AI開発者」と「AI提供者」です。AI開発者とは、AIモデルの開発、データ収集、学習・検証を通じてAIシステムを構築する者を指します。重要なのは、日本国外に拠点がある事業者でも、日本向けにサービスを提供している場合は対象に含まれる点です。

求められる主な対応事項

知的財産権保護のための体制整備

AI事業者には、知的財産権保護のための社内原則の策定と責任体制の明確化が求められます。年1回以上の見直しも必要とされています。

具体的には、ペイウォール等のアクセス制限の尊重、robots.txtなど機械可読な指示に従うクローラの採用などが挙げられています。無断でコンテンツを収集することへの歯止めを設ける狙いがあります。

学習データの透明性確保

AI事業者には、コーポレートサイトで使用モデルの名称や設計仕様、トレーニング方法、学習データの種類などを開示することが求められています。これは、権利者が自身の著作物がAI学習に使用されたかを確認できるようにするための措置です。

ただし、学習データの「詳細」がどこまでを指すのかは明確ではなく、事業者側からは「対応困難」との声が上がっています。数億件に及ぶWebページを学習に使用している場合、個別のURLリストを開示することは現実的に不可能だからです。

生成物に関する注意喚起

利用者に対して、生成物が他者の知的財産権を侵害する可能性がある場合には利用すべきでない旨を周知することも求められています。また、電子透かしやC2PAなど、コンテンツの出所や来歴を証明する技術の活用も推奨されています。

AI事業者からの批判

「国内企業だけが不利になる」

AI事業者から最も強い批判が上がっているのが、外国企業との公平性の問題です。OpenAIやGoogle、Metaなど海外の大手AI企業が日本市場でサービスを提供していますが、これらの企業が日本のソフトローを遵守するかは不透明です。

「日本国外の事業者も対象」と明記されていますが、実効性を担保する仕組みがありません。結果として、「真面目に対応する国内企業だけがコストと手間を負担し、海外企業に先行を許す」という事態が懸念されています。

中小企業・個人への萎縮効果

法律専門家からは、コンプライ・オア・エクスプレイン方式であっても、中小企業や個人への萎縮効果が大きいとの指摘があります。十分な説明義務を果たすための人員やコストを確保できず、AIサービスの提供自体を諦める事業者が出てくる可能性があります。

スタートアップにとって、法務・コンプライアンス体制の整備は大きな負担です。イノベーションを促進するはずのAI政策が、逆に参入障壁を高める結果になりかねません。

技術的な実現可能性

学習データの透明性確保について、技術的な実現可能性にも疑問が呈されています。大規模言語モデル(LLM)の学習には数兆トークン規模のデータが使用されており、その出典を網羅的に開示することは現実的ではありません。

また、学習データの開示は企業の競争優位性を損なう可能性もあります。どのデータでどのように学習したかは、AIモデルの性能を左右する重要な企業秘密でもあるからです。

クリエイター・権利者側の視点

無断学習への歯止めを期待

一方、クリエイターや権利者団体からは、プリンシプル・コードを評価する声もあります。これまで生成AIによる無断学習やフェイクコンテンツの乱造に対して、有効な抑止手段がありませんでした。ソフトローであっても、AI事業者に一定の責任を求める枠組みが整備されることへの期待があります。

日本の著作権法第30条の4により、AI学習への著作物利用は原則として合法とされています。しかし「著作権者の利益を不当に害する場合」は例外とされており、その判断基準が曖昧でした。プリンシプル・コードは、この曖昧さを解消する一歩と捉えられています。

対価還元の仕組みへの期待

文化庁は「AIと著作権に関する関係者ネットワーク」を設置し、AI事業者とクリエイター間の対話促進を図っています。この取り組みにより、AI利用を含むライセンス事業が始まるなど、対価還元についての具体的な動きが出てきています。

日本のマンガ、アニメ、映像、文芸等のコンテンツは世界市場で高く評価されていますが、クリエイターがAI学習の対価を得る仕組みは十分に整備されていません。プリンシプル・コードが、この課題解決の契機になることが期待されています。

海外の規制動向との比較

EUのAI法

EUでは2024年8月よりAI法(AI Act)が段階的に施行されています。高リスクAIには安全性や基本的人権への配慮が義務付けられ、透明性や情報開示も求められます。汎用目的型AIモデルのプロバイダーには、トレーニングデータに使用されるコンテンツの詳細公表が義務付けられています。

EU域外の事業者でも、AIシステムをEU域内で上市する場合や、アウトプットがEU域内で使用される場合は規制対象となります。法的拘束力を持つ点で、日本のソフトローとは大きく異なります。

米国の動向

カリフォルニア州では、2026年1月に「AI透明化法」と「生成AI訓練データ透明化法」が施行予定です。後者は、生成AIの開発者に対して、使用したデータセットの概要をWebサイト上で公表することを義務付けています。

また、2025年には大手メディア企業がAI企業を相手取った著作権訴訟が相次いでいます。ディズニーやユニバーサルがMidjourneyを提訴したほか、読売新聞社がPerplexity AIを訴えるなど、日本でも訴訟が始まっています。

韓国・中国の対応

韓国では2025年1月に「AI基本法」が制定され、2026年1月に施行予定です。透明性・安全性確保義務が定められ、海外から韓国向けにAIサービスを提供する事業者には国内代理人の設置が義務付けられています。

中国では2023年8月に「生成AIサービス管理暫定弁法」が施行されており、適法なデータの使用や知的財産権の不侵害が義務付けられています。

企業が取るべき対応

まずは現状把握から

企業がまず取り組むべきは、自社におけるAIの利活用状況の把握です。どのようなAIサービスを使用しているか、そのAIがどのようなデータで学習されているかを確認する必要があります。

海外ベンダーのAIサービスを利用している場合、各国の規制強化の影響を直接受ける可能性があります。取引先や顧客から「どのデータで学習したAIか」を説明できる体制を整えておくことが重要です。

柔軟なガバナンス体制の構築

AI規制は今後も変化していくことが予想されます。新規の法規やガイドラインへの対応の必要性を判断し、柔軟にアップデートすることを前提としたガバナンス体制を構築することが求められます。

特にグローバルに事業を展開する企業は、EU、米国、日本など各地域の規制を横断的に把握し、統合的なコンプライアンス体制を整備する必要があります。

まとめ

内閣府の「プリンシプル・コード」は、生成AIと知的財産権の両立を図る意欲的な取り組みですが、実効性と公平性に課題を抱えています。国内企業だけが負担を強いられ、海外企業との競争で不利になるという懸念は、政策立案者が真剣に向き合うべき問題です。

一方で、クリエイターの権利保護や対価還元の仕組みづくりは、日本のコンテンツ産業の持続可能性にとって重要な課題です。AI事業者と権利者の対話を促進し、双方にとって納得できるルールを構築することが求められています。

企業としては、規制動向を注視しつつ、自社のAI利活用状況を把握し、説明責任を果たせる体制を整備していくことが重要です。

参考資料:

関連記事

最新ニュース