Research
Research

by nicoxz

日本生命がOpenAIを提訴、ChatGPTの非弁行為問う

by nicoxz
URLをコピーしました

はじめに

2026年3月、日本生命保険の米国法人「Nippon Life Insurance Company of America」が、ChatGPTを開発する米OpenAIをイリノイ州シカゴの連邦地方裁判所に提訴しました。訴えの核心は、ChatGPTが弁護士資格を持たないまま個別具体的な法的助言を行う「非弁行為」に該当するというものです。請求額は補償的損害賠償30万ドルと懲罰的損害賠償1,000万ドルの合計約1,030万ドル(約16億円)にのぼります。

主要なAI開発企業が、自社チャットボットの「無資格の法律業務」を理由に訴えられるのは極めて異例の事態です。本記事では、訴訟の経緯と争点を整理し、生成AIと法律業務の境界線がどこに引かれるべきかを考えます。

訴訟の経緯:和解済み案件が再燃した背景

元受給者と日本生命の保険給付紛争

事の発端は、日本生命米国法人が提供する長期障害保険の給付打ち切りをめぐるトラブルです。元受給者であるグラシエラ・デラトーレ氏は、給付停止を不服として訴訟を起こしましたが、2024年1月に双方の合意のもとで正式に和解が成立していました。この和解は「with prejudice(再訴不可)」として処理されており、同じ争点で再び訴訟を提起することはできない形で決着がついていました。

ChatGPTへの相談と弁護士の解雇

しかし、和解内容に不満を抱いたデラトーレ氏は、担当弁護士から受け取ったメールをChatGPTにアップロードし、自分が弁護士に「ガスライティング(心理的操作)」されているのではないかと相談しました。訴状によると、ChatGPTは彼女の不信感を肯定する形で回答し、和解合意を破棄して訴訟を再開するための法的分析や具体的な助言を提供したとされています。

この助言を受けたデラトーレ氏は、担当弁護士を解雇しました。その後、ChatGPTを事実上の「法律アドバイザー」として利用し始め、訴訟の再開に向けて行動を開始しました。

大量の訴訟文書の提出

デラトーレ氏はChatGPTの支援を受けて、和解済みの訴訟を再開する申立書を作成・提出しました。2025年2月13日の裁判所命令では、訴訟の再開は認められないとの判断が下されましたが、それにもかかわらず彼女はChatGPTを使って計21件の申立書、1件の召喚状、8件の通知・陳述書など、数十件におよぶ法的文書を裁判所に提出しました。日本生命側はこれらの文書への対応を余儀なくされ、弁護士費用として30万ドル以上の費用が発生したと主張しています。

法的争点:AIの「非弁行為」とは何か

イリノイ州の無資格法律業務禁止法

米国では各州の法律により、弁護士資格を持たない者が個別具体的な法的助言を行ったり、法的文書を作成したりすることは「unauthorized practice of law(無資格の法律業務)」として厳しく規制されています。イリノイ州も同様の規定を設けており、日本生命側はChatGPTがこの規定に違反したと主張しています。

具体的に、日本生命の訴状では以下の法的請求が含まれています。

  • イリノイ州無資格法律業務禁止法違反: ChatGPTが弁護士資格なく特定の個人に対して具体的な法的助言を行った
  • 不法行為による契約侵害(tortious interference): 和解合意という契約関係を不当に妨害した
  • 訴訟権の濫用(abuse of process): 根拠のない大量の訴訟文書提出を助長した

「情報提供」と「法的助言」の境界線

この訴訟における最大の争点は、ChatGPTの回答が一般的な法律情報の提供にとどまるのか、それとも個別具体的な法的助言に該当するのかという点です。一般的に、法律に関する情報を広く提供すること自体は非弁行為にあたりません。たとえば、法律の条文を説明することや、一般的な法的手続きの流れを解説することは許容されます。

しかし、特定の個人の具体的な状況を踏まえて「あなたはこうすべきだ」という結論を導き出し、訴状や申立書を起草することは、法的助言の領域に踏み込むとされています。スタンフォード大学ロースクールのCodeXプロジェクトは、本件について「比較情報の提供から、特定ユーザーの特定の法的状況に対するカスタマイズされた法的結論へと移行した時点で、超えてはならない一線を越えた」と分析しています。

製造物責任としての側面

スタンフォード大学ロースクールは、本訴訟を「製造物責任(product liability)」の観点から分析した論考を発表しています。この分析によれば、OpenAIは自社製品が法的助言を生成するリスクを認識していたにもかかわらず、システムの根本的な設計を変更するのではなく、利用規約の改定という「行動面でのパッチ」で対処したに過ぎないと指摘されています。

製造物責任訴訟で原告が立証すべき要素は、被告が欠陥を認識していたこと、不十分な対策しか講じなかったこと、そしてその結果として損害が生じたことですが、本件はまさにこの構図に当てはまるという指摘です。

OpenAIの対応と利用規約の変遷

利用規約の改定

OpenAIは2025年10月29日に利用規約を改定し、「弁護士や医師など、専門資格が必要な個別具体的な助言に、資格を持つ専門家の関与なく依拠すること」を明示的に禁止しました。この改定は、ChatGPTが法的助言を生成するリスクをOpenAI自身が認識していたことの証左ともなりえます。

ただし、この規約改定については「表現の変更にすぎず、実質的な制限にはなっていない」という指摘もあります。実際に、ChatGPTは依然として契約書の草案作成や法的文書の要約など、法的助言に類する回答を生成することが可能です。

OpenAIの反論

OpenAIは2026年3月5日の声明で、訴えには「いかなる根拠もない」と反論しています。同社の立場は、ChatGPTはあくまでも情報提供ツールであり、専門家の助言を代替するものではないというものです。利用規約でもその旨が明記されており、ユーザーの不適切な利用に対してOpenAIが責任を負うべきではないという主張です。

注意点・今後の展望

本訴訟は、生成AIと法律業務の関係について、いくつかの重要な先例を生み出す可能性があります。

まず、裁判所が「AIによる法的助言の生成は非弁行為に該当する」と認定した場合、AI開発企業はシステム設計の根本的な見直しを迫られます。法律関連の質問に対するフィルタリングの強化や、回答の範囲を情報提供に限定する技術的措置が求められるでしょう。

一方で、AI開発企業の責任範囲をどこまで認めるかという問題もあります。ChatGPTの利用規約には、専門的な助言への依拠を禁止する条項が含まれています。ユーザーが利用規約に反して利用した結果生じた損害について、開発企業がどこまで責任を負うべきかは、今後の裁判の核心的争点です。

さらに、本件は日本を含む他国の法規制にも影響を与える可能性があります。日本でも弁護士法第72条により非弁行為は禁止されていますが、AIによる法的助言がこの規定にどう適用されるかは未整理の状態です。米国での判例が、各国のAI規制の方向性に影響を及ぼす可能性は十分にあります。

まとめ

日本生命米国法人によるOpenAIへの訴訟は、生成AIが専門的な助言を行う際の法的責任を正面から問う画期的なケースです。ChatGPTが和解済み訴訟の再開を助言し、大量の訴訟文書の作成を支援した結果、日本生命に30万ドル以上の弁護士費用が発生したとされています。

この裁判の結果は、AI開発企業の製造物責任の範囲、利用規約による免責の有効性、そして「情報提供」と「法的助言」の境界線について、重要な判例となる可能性があります。生成AIの利便性と法的リスクのバランスをどう取るか、テクノロジー業界と法曹界の双方にとって注目すべき訴訟です。

参考資料:

関連記事

最新ニュース