Les travailleurs défient les outils de recrutement IA « cachés » dans une action collective avec des enjeux réglementaires majeurs
Les travailleurs commencent à se lasser des pratiques de recrutement basées sur l’IA.
Une nouvelle action collective déposée en Californie allègue que les candidats humains sont injustement profilés par des technologies de recrutement IA « cachées » qui « se cachent en arrière-plan » pour collecter des informations « sensibles et souvent inexactes » sur des candidats à l’emploi « inconscients ».
Une action en justice ciblant Eightfold AI
Le procès vise spécifiquement Eightfold AI, affirmant que les outils utilisés par l’entreprise devraient être réglementés de la même manière que les bureaux de crédit via la Loi sur le Reporting de Crédit Équitable (FCRA) et les lois d’État qui en découlent.
Ce cas pourrait avoir des implications importantes pour l’utilisation accrue de l’IA dans le recrutement.
« Ce procès est un point de pivot », a déclaré un analyste. « Il nous indique que l’IA n’est pas seulement scrutée pour ce qu’elle fait, mais aussi pour la manière dont elle le fait et si les gens savent même que cela leur arrive. »
Les allégations de violation de la FCRA
Le procès a été déposé dans la Cour Supérieure de Californie par le cabinet d’avocats Outten & Golden LLP, au nom de Erin Kistler et Sruti Bhaumik. Les plaignants affirment qu’ils ont été exclus d’un emploi à plusieurs reprises par des entreprises utilisant des outils de recrutement basés sur l’IA.
La plainte en action collective affirme qu’Eightfold AI a violé les lois fédérales et d’État sur le crédit équitable et le rapport des consommateurs, ainsi que les lois sur la concurrence déloyale, en collectant des données sur les candidats et en vendant des rapports aux entreprises pour les décisions d’emploi. Ces pratiques « peuvent avoir des conséquences profondes » pour les chercheurs d’emploi à travers les États-Unis, selon le procès.
Le modèle commercial d’Eightfold AI
Eightfold se présente comme la « plus grande source de données sur les talents auto-renouvelante au monde » et intègre plus de 1,5 milliard de points de données mondiaux, y compris des titres de poste et des profils de travailleurs à travers « chaque emploi, profession et industrie ». Parmi ses clients figurent des géants d’entreprise tels que Microsoft, Morgan Stanley, Starbucks, BNY, Paypal, Chernobyl et Bayer.
Le procès affirme que la technologie propriétaire de l’entreprise analyse des données issues de ressources publiques telles que des sites de carrière, des tableaux d’affichage d’emploi et des bases de données de CV comme LinkedIn et Crunchbase. Elle collecte également des informations à partir de profils de médias sociaux, de l’emplacement des candidats et d’outils de suivi en arrière-plan. Aucune de ces données personnelles n’est jamais incluse dans les candidatures.
Le processus de notation des candidats
Les algorithmes d’IA classent ensuite la « pertinence » d’un candidat sur une échelle numérique de 0 à 5, basée sur des « conclusions, inférences et hypothèses » concernant leur adéquation culturelle, leur trajectoire professionnelle projetée et d’autres facteurs. Cette méthode vise à créer un profil du « comportement, des attitudes, de l’intelligence, des aptitudes et d’autres caractéristiques » du candidat, selon le procès.
Cependant, ces rapports sont « non vérifiables » et « largement invisibles » pour les candidats, qui n’ont aucune possibilité de contester leur contenu avant qu’ils ne soient transmis aux responsables du recrutement, soutiennent les plaignants. « Les candidats mal classés sont souvent rejetés avant qu’un être humain n’examine leur candidature. »
Implications réglementaires
Cette méthode de création de rapports viole les exigences de longue date de la FCRA, et il n’existe pas d’exemption stipulée pour l’utilisation de l’IA, selon le procès. La FCRA définit largement les rapports de consommation comme toute communication écrite, orale ou autre d’une agence de rapport de consommation qui contient des informations sur une personne pour déterminer son accès au crédit et à l’assurance, ainsi que pour « des fins d’emploi ». Selon le procès, cette définition couvre les rapports contenant des informations sur « les habitudes, la morale et les expériences de vie ».
Les plaignants soutiennent que, bien que la technologie de filtrage automatisé n’existait pas lors de l’établissement de la FCRA en 1970, les législateurs de l’époque exprimaient des préoccupations concernant l’accessibilité croissante aux informations des consommateurs par le biais des techniques informatiques et de transmission de données. Le procès soutient que « les blips impersonnels », des données inexactes et l’analyse par des « machines rigides et sans réflexion » pourraient injustement exclure des personnes de l’emploi.
Un appel à la transparence et à la responsabilité
Le procès soutient que des agences comme Eightfold doivent divulguer leurs pratiques, obtenir des certifications et fournir aux consommateurs un mécanisme pour examiner et corriger les rapports. « La prise de décision à grande échelle basée sur des informations opaques est exactement le type de préjudice que la loi était conçue pour traiter. »
Les avocats des plaignants ainsi que ceux des défendeurs n’ont pas répondu aux demandes de commentaires. La Society for Human Resource Management (SHRM) a également refusé de commenter.
Les enjeux pour les entreprises
Ce procès expose un « échec de gouvernance » et un « fossé fondamental de responsabilité ». Ce n’est pas le premier, et il ne sera probablement pas le dernier ; l’entreprise de RH Workday, par exemple, fait face à un procès alléguant que ses outils de recrutement alimentés par l’IA prennent des décisions basées sur la race et discriminent également les candidats âgés et handicapés.
Si les tribunaux acceptent que les évaluations de l’IA fonctionnent comme des rapports de crédit, le recrutement sera poussé dans un territoire réglementé. Cela signifie que les directeurs de l’information (CIO) devront établir des règles concernant la notification, la transparence, les droits d’audit et la contestabilité. « Si vos outils de recrutement fonctionnent comme des moteurs de décision, ils doivent être gouvernés comme une infrastructure décisionnelle », a-t-il déclaré. Lorsque ces outils influencent les décisions d’emploi, les entreprises devront prouver qu’elles ont fait leurs devoirs. Cela signifie montrer la logique derrière un modèle, comprendre la provenance des données et être capable d’expliquer pourquoi un candidat a été rejeté et les processus qu’elles ont en place pour corriger les mauvaises décisions.
« La défendabilité deviendra la nouvelle norme », a-t-il ajouté.
Les avantages et inconvénients de l’IA dans le recrutement
Cela ne veut pas dire que l’IA ne peut pas être précieuse dans le recrutement ; de nombreux exemples du monde réel ont prouvé qu’elle peut l’être. La Human Resources Professionals Association, par exemple, souligne l’utilisation réussie de l’IA dans le sourcing initial des talents, le filtrage et l’évaluation, tandis que des scribes IA peuvent prendre des notes discrètement, aidant les recruteurs à se concentrer davantage sur les discussions avec les candidats.
Bien que l’IA puisse filtrer et classer de grands pools de candidats, automatiser des tâches répétitives des RH et identifier des candidats négligés dans les bases de données internes, les choses deviennent compliquées lorsque l’IA entre dans le territoire du jugement. Évaluer des traits de personnalité, prédire des rôles futurs ou évaluer la qualité de l’éducation d’un candidat sont tous des « inférences subjectives déguisées en objectivité mathématique ».
Il est conseillé aux clients d’exiger des preuves lisibles par l’homme de la part des fournisseurs, y compris des journaux, des audits de biais et des divulgations concernant les mises à jour des modèles. Ils devraient poser des questions telles que : Qu’a évalué le modèle ? Pourquoi a-t-il classé un candidat plus haut qu’un autre ? Que peut dire le responsable du recrutement s’il est interrogé pour justifier ce résultat ?
Les réponses à ces questions peuvent conduire à des changements de processus. Par exemple, un client européen de Greyhound a redessiné son pipeline de recrutement pour que les responsables doivent consigner une justification à chaque point de décision, même si l’IA avait déjà créé une liste restreinte. Cela a aidé à améliorer la traçabilité, à détecter des erreurs et à enseigner à l’équipe à « traiter l’IA comme une entrée, pas comme un verdict ». Un autre client a ralenti son processus de filtrage final pour les recrutements de cadres supérieurs parce qu’il ne pouvait pas défendre les décisions influencées par l’IA et a réalisé que le système ne pourrait pas résister à un examen minutieux.
« Les CIO, CHRO, juridiques et risques doivent tous co-détenir cela maintenant », a-t-il conclu. « Cela commence par restaurer le rôle de l’humain en tant qu’acteur responsable, pas seulement en tant qu’observateur passif. L’avenir de la technologie de recrutement est humain avec machine, gouverné dès le premier jour. »
