Research
Research

by nicoxz

採用AI差別訴訟で問われる企業とベンダーの責任分担と規制対応

by nicoxz
URLをコピーしました

はじめに

採用にAIを使う企業は、もはや一部の先進企業だけではありません。SHRMによると、組織がAIを最も多く使っているHR領域は採用で、51%が採用業務をAIで支援しています。利用場面も、求人票作成、履歴書スクリーニング、候補者検索、応募者連絡まで広がっています。効率化の裏返しとして、差別のリスクも採用プロセス全体に広がりました。

問題は、差別が起きたとき誰が責任を負うのか分かりにくい点です。求人企業なのか、ツールを作ったベンダーなのか、監査会社なのか。米国ではこの問いが、Workdayをめぐる訴訟で現実の争点になっています。この記事では、採用AIで差別が生まれる仕組みを押さえたうえで、法的責任がどこに向かい、企業は何を整備すべきかを整理します。

採用AIで差別が生まれる仕組みと訴訟の到達点

偏りは学習データだけでは終わらない構図

採用AIの偏りは、単に学習データに差別があるから起きるわけではありません。NISTは、AIのバイアスは技術的要因だけでなく、人間の判断や制度的・社会的な偏りからも生まれると指摘しています。採用の文脈で言えば、過去の採用実績を学習させれば、過去に優遇された属性を再生産しやすくなります。さらに、居住地、学歴、職歴の空白、話し方、タイピング速度のような一見中立な要素が、年齢、障害、人種、性別の代理変数として働くことがあります。

EEOCと米司法省も、AI採用ツールは障害者を不当に「スクリーンアウト」し得ると警告しています。たとえば表情分析、音声評価、認知テスト、ゲーム型選抜は、合理的配慮なしに使えば障害のある応募者に不利に働くおそれがあります。ここで重要なのは、アルゴリズムが差別する意思を持っていたかどうかではありません。結果として特定の属性を不利に扱えば、差別として争われる可能性があります。

Workday訴訟が変えた責任の見え方

その象徴が、米カリフォルニア北部地区連邦地裁で続くMobley v. Workdayです。原告のデレク・モブリー氏は、Workdayのスクリーニングを使う企業へ80〜100件応募して全て不採用になったと主張し、2023年に提訴しました。2024年7月の判断では、裁判所はWorkdayが単なるソフト提供者ではなく、企業から「候補者を落とすか面接へ進めるか」という伝統的な採用機能を委ねられた「代理人」として責任を問われ得ると整理しました。これは、外注したから企業責任が消えるわけでも、逆にベンダー責任が常に発生するわけでもないという線引きを示したものです。

その後、2025年5月には年齢差別の請求について条件付き集団訴訟が認められました。Law and the Workplaceによると、Workdayは訴訟資料で、争点期間中に自社ツールで「11億件の応募が却下された」と説明したとされます。数字自体は訴訟上の主張であり、違法性が確定したわけではありませんが、採用AIの問題が個別被害ではなくシステム的影響として扱われ始めたことは重要です。

誰が責任を負うのかという実務上の整理

第一責任は採用企業に残る原則

実務上、最も重い責任を負いやすいのはやはり採用企業です。EEOCは、AIやアルゴリズムを使った選考でも既存の差別禁止法はそのまま適用されると明言しています。ベンダー製ツールであっても、企業がその結果を採用判断に使うなら、企業は「知らなかった」で逃れにくいという整理です。ニューヨーク市のLocal Law 144も、責任主体をまず「雇用主」と「職業紹介機関」に置き、使用前1年以内のバイアス監査、公表、応募者への事前通知を義務づけています。

つまり、企業はAIを導入した時点で説明責任を負います。どの場面で使うのか、何を評価するのか、代替選考手段はあるのか、合理的配慮の窓口はどこか。これらを整えずに「ベンダーが公平だと言っていた」とする姿勢は、もはや通りにくくなっています。

ベンダー責任は委任の深さで重くなる局面

一方で、ベンダー責任も確実に重くなっています。Workday訴訟で裁判所が注目したのは、ソフトが採用の周辺業務を補助しているだけでなく、候補者を自動で落としたり進めたりする判断に実質参加していた点でした。EEOCのアミカス意見書も、企業が権限を委ねていればソフトベンダーは「代理人」に当たり得ると示しています。逆に言えば、単なる表計算ソフトや汎用分析ツールのように、採用判断そのものへ直接関わらない場合は同じ扱いにならない可能性があります。

ここで監査会社や第三者評価会社の責任はどうか。現時点では、雇用差別法上の中心的責任主体は企業と、その機能を代行するベンダーです。監査会社は、契約責任や表示責任、専門家責任を問われる余地はあっても、差別法上の位置づけはまだ流動的です。だからこそ企業は、監査報告書を受け取るだけで安心せず、自社の実運用に即した検証を続ける必要があります。

注意点・展望

注意すべきなのは、規制ができても執行が追いつかないことです。ニューヨーク州会計監査官の2025年監査では、Local Law 144の対象期間に苦情は2件しか来ていなかった一方、監査側が調べた32社のうち少なくとも17件の潜在的な不順守が見つかりました。制度があっても、事後通報頼みでは実効性が弱いという現実があります。

さらにSHRMの2026年調査では、雇用AI関連の州・地方規制がある州で働くHR担当者の57%が、自分の地域の規制を把握していないと答えています。今後は連邦レベルの包括法よりも、州法、自治体ルール、民事訴訟、監督当局の個別執行が組み合わさって企業を縛る形が続きそうです。

まとめ

採用AIで差別が起きたとき、責任は一つに決まりません。ただし、まず採用企業が中心的責任を負い、採用判断を実質的に代行するベンダーも責任を問われ得る、というのが現在の実務的な整理です。Workday訴訟は、その線引きを「委任の深さ」と「判断への参加度」で測る方向を示しました。

重要なのは、AIを使うか使わないかではなく、どこで使い、何を記録し、誰が異議申立てや合理的配慮に対応するかを設計することです。バイアス監査、説明可能性、人による見直し、代替手段の用意まで含めて初めて、採用AIは法的にも運用的にも持続可能になります。差別責任の時代は、もはや「ブラックボックスだから仕方ない」では済みません。

参考資料:

関連記事

最新ニュース