Research
Research

by nicoxz

AI採用ツールが差別?米ワークデイ訴訟の全貌

by nicoxz
URLをコピーしました

はじめに

AIを活用した採用選考が急速に広がるなか、アルゴリズムによる「見えない差別」が深刻な社会問題として浮上しています。米国では、人事ソフトウェア大手ワークデイ(Workday)のAI採用ツールが年齢や人種に基づく差別を行ったとして、大型の集団訴訟に発展しました。同社のツールを通じて却下された応募は延べ11億件にのぼるとされ、潜在的な被害者は「数億人規模」とも指摘されています。

AIが人事の意思決定を左右する時代に、その判断の公正性を誰がどう担保するのか。本記事では、ワークデイ訴訟の経緯と争点を軸に、AI採用ツールが抱える構造的な問題と、世界で進む規制の動きを解説します。

AI採用ツールの仕組みと普及の背景

効率化の裏に潜むリスク

ワークデイが提供するAI採用ツールは、履歴書の自動スクリーニング、性格・認知テスト、アルゴリズムによる候補者のスコアリングなど、多岐にわたる機能を備えています。企業の採用担当者に代わって応募者の適性を評価し、自動的に合否を判定することが可能です。

こうしたAI選考ツールは、採用プロセスの大幅な効率化を実現します。ある調査では、AIを活用することで履歴書のスクリーニングにかかる時間を最大75%削減できるとされています。数千社の企業がワークデイのプラットフォームを利用しており、その影響範囲は非常に広大です。

アルゴリズムの「ブラックボックス」問題

しかし、効率化と引き換えに重大な問題が生じています。AIが候補者を評価する基準や、なぜ特定の応募者を不採用と判定したのかが、外部からはほぼ見えません。いわゆる「ブラックボックス」状態です。人間の採用担当者が介在せずにアルゴリズムが自動的に応募者を排除できる仕組みは、差別的なバイアスが存在していても発見されにくい構造を生み出しています。

ワークデイ訴訟の経緯と争点

デレク・モブレー氏の訴え

訴訟の原告であるデレク・モブレー氏は、40歳を超えるアフリカ系米国人男性です。不安障害とうつ病を自己申告しており、2018年以降にワークデイのプラットフォームを利用する企業に100件以上の求人に応募しましたが、すべて不採用となりました。モブレー氏は2023年2月、ワークデイのAIスクリーニングツールが年齢、人種、障害を理由に差別を行っているとして、カリフォルニア州北部地区連邦地方裁判所に訴訟を提起しました。

「エージェント理論」による責任追及

この訴訟で特に注目されるのは、AIツールの提供企業(ベンダー)に雇用差別の直接的な責任を問えるかという点です。2024年7月、裁判所はワークデイが「雇用機関」として責任を負うとの主張は退けたものの、雇用主の「エージェント(代理人)」として行動しているとの理論に基づく請求については審理の継続を認めました。これは、AIベンダーが差別に対して直接的な法的責任を負いうるという、画期的な法的判断です。

全米規模の集団訴訟へ発展

2025年5月、リタ・リン判事は年齢差別雇用法(ADEA)に基づき、全米規模の集団訴訟としての予備的認定を付与しました。対象は、2020年9月24日以降にワークデイのプラットフォームを通じて採用推薦を拒否された40歳以上のすべての求職者です。裁判所は、原告らが「ワークデイの差別的なAI推薦により不平等な条件で競争を強いられたという中心的な点で共通している」と判示しています。

2026年1月には、ワークデイ側がADEAの「差別的効果」理論は求職者には適用されないとする却下申し立てを行いましたが、集団訴訟の枠組み自体は維持されています。参加希望者の申し出期限は2026年3月7日に設定されていました。

相次ぐAI採用差別の事例

アマゾンの教訓

AI採用ツールによる差別は、ワークデイに限った問題ではありません。アマゾンは2018年、技術職の採用に使用していたAIアルゴリズムが女性を不利に扱っていることを発見し、使用を中止しました。主に男性の履歴書データで学習させた結果、男性が多く使う表現を含む履歴書を優遇するバイアスが形成されていたのです。

EEOCの初のAI差別和解

2024年には、米国雇用機会均等委員会(EEOC)がAI採用差別に関する初の和解を達成しました。ある家庭教師派遣企業のAI選考ツールが、55歳以上の女性と60歳以上の男性の応募を自動的に却下していたことが判明し、36万5,000ドルの和解金が支払われました。さらに5年間のEEOC監視、差別防止研修の義務化、却下された応募者への再応募案内などが和解条件に含まれています。

HireVue・Aonへの申し立て

2025年3月には、AI面接プラットフォームのHireVueとその利用企業であるIntuitに対し、聴覚障害者や非白人の応募者に不利に働くバイアスがあるとの申し立てが行われました。また2024年5月には、米自由人権協会(ACLU)がAonの採用評価ツール3種について、障害者や非白人への差別があるとして連邦取引委員会(FTC)に申し立てを行っています。

世界で進むAI採用規制

EUのAI規制法:採用は「高リスク」

EUのAI規制法(EU AI Act)は、2024年8月に発効した世界初の包括的AI規制です。同法では、AIを活用した採用選考を「高リスク」に分類しています。2025年2月からは職場での感情認識AIなど一部の慣行が禁止され、2026年8月2日には高リスクAIシステムに対する中核的な要件が施行されます。

具体的には、バイアスのないことを確認するためのリスク評価とテスト、AIの仕組みを説明する詳細な技術文書、自動判定を監視する人間の監督メカニズム、EU データベースへのシステム登録などが義務化されます。違反した場合、最大3,500万ユーロまたは全世界売上高の7%のいずれか高い方の制裁金が科される可能性があります。

米国:連邦法なき州法の乱立

米国では連邦レベルでの統一的なAI規制は存在しませんが、州レベルでの法整備が進んでいます。イリノイ州では2024年8月に州人権法の改正法案が成立し、採用における自動化ツールの使用に関して従業員への事前通知を義務化する規定が2026年1月に施行されました。コロラド州のAI法(SB 24-205)は、高リスクAIシステムに対する影響評価を義務付けるもので、施行は2026年6月に延期されています。

カリフォルニア州でも、公民権評議会が差別禁止法をAIツールに拡大適用する新規制を策定し、自動化された意思決定データを4年間保存することを雇用主に義務付けています。

注意点・展望

AI採用ツールをめぐる法的リスクは、今後さらに拡大する見通しです。ワークデイ訴訟は、AIベンダーの責任範囲を明確にする先例となる可能性があり、その帰結は業界全体に波及します。

企業が注意すべき点として、まず自社が利用しているAI採用ツールの評価基準とバイアスの有無を検証することが重要です。「ベンダーが提供しているツールだから責任はベンダーにある」という認識は通用しません。EEOCの立場は明確で、AIツールが差別的効果を生んだ場合、そのツールを外部から調達したかどうかにかかわらず、雇用主も責任を負います。

日本においても、AI採用ツールの利用は拡大しており、法的な枠組みの整備が求められています。2025年には採用におけるAI活用のリスクに関する分析が公表されるなど、問題意識は高まりつつあります。

まとめ

ワークデイ訴訟は、AI採用ツールによる差別の責任を誰が負うべきかという根本的な問いを突きつけています。延べ11億件の応募が却下されたという規模は、問題の深刻さを象徴しています。

EUでは2026年8月に高リスクAIへの包括的規制が施行され、米国でも州単位で法整備が加速しています。AI採用ツールを利用する企業は、アルゴリズムの公正性を自ら検証し、人間による監督体制を構築することが急務です。効率化の恩恵を享受しつつ、すべての求職者に公正な機会を保障する仕組みづくりが、今まさに問われています。

参考資料:

関連記事

最新ニュース