Travail et recrutement prédictif : des candidats à l’emploi inégaux face aux nouveaux usages
Rédigé par Hajar El Aoufir
-
27 février 2020Les usages de l’IA dans le recrutement font émerger des promesses de repérage des talents et d’aide à la décision toujours plus poussées. Pourtant ces outils ne vont pas sans leurs données, biais et questionnements…
Fin 2018, le LINC publiait un article sur l’usage croissant en entreprises de dispositifs de surveillance connectée des employés, alertant sur les risques liés à la gestion des données de ressources humaines. En Europe, les lignes directrices sur le consentement du CEPD protègent l’employé d’une collecte subie de ces données au vue de sa dépendance économique au travail, l’avis 15/2011 du G29 sur la définition du consentement stipulant en 2011 déjà que : « Lorsqu’une personne concernée se trouve dans une situation de dépendance vis-à-vis du responsable du traitement –en raison de la nature de la relation ou de circonstances particulières –l’on peut être porté à croire que la liberté de consentement est limitée ». A cet égard, l’article 7, paragraphe 4 du RGPD fait reposer la charge de preuve de respect du consentement sur le responsable de traitement.
Mais qu’en est-il de la protection des données personnelles des candidats à l’emploi, à l’aune de l’automatisation accrue des processus de recrutement ? Touchant de nombreux secteurs professionnels, des entreprises spécialisées en recrutement prédictif promettent une prise en charge partiellement ou entièrement automatisée des tâches chronophages et routinières liées au recrutement. Pour les professionnels des ressources humaines, l’utilisation de ces programmes d’IA pourrait améliorer leur travail quotidien, au niveau de tri des CV ou du suivi des différentes étapes de candidatures, tout en permettant de mieux prévoir les besoins futurs et limiter les phénomènes de turnover (taux de renouvellement du personnel). Au-delà de cette recherche d’efficacité accrue, l’enjeu semble être de permettre un recentrage des activités liées au recrutement des ressources humaines vers des missions à forte valeur ajoutée humaine comme le repérage de talents.
Dans son essai Weapons of Math Destruction, la mathématicienne et scientifique des données Cathy O’Neil s’interroge sur les gagnants et perdants de l’injection de ces solutions technologiques au sein des processus de recrutement. Au-delà d’une analyse des coûts et avantages pour les entreprises d’un côté et les demandeurs d’emplois de l’autre, l’essayiste s’interroge sur les éventuelles inégalités creusées entre candidats : sommes-nous tous égaux face au recrutement prédictif ?
De l’opacité de l’usage des données dans le recrutement : quand biais humains et algorithmiques ne font plus qu’un
Quels types de données peuvent être utilisés à l’encontre de certains profils, sans qu’ils ne puissent le savoir et éventuellement y remédier ? Amazon, qui a déjà fait de l’automatisation le fer de lance de sa stratégie concurrentielle, expérimentait dès 2014 un algorithme de recrutement prédictif notant les candidats d’une à cinq étoiles. L’expérimentation a rapidement été suspendue, lorsqu’il était apparu que pour les offres de développeur logiciel et autres postes techniques, le système avait tendance à privilégier les hommes. Fondé sur la base de données de 10 ans de recrutement passé dans une industrie tech largement dominé par les hommes, l’algorithme en apprentissage automatique (machine learning) avait permis et alimenté la continuité de cette division genrée du travail. Au final, l’outil n’a jamais été officiellement utilisé pour prendre une décision automatique.
Si la question des biais algorithmiques a été mise en avant grâce à ces révélations, il se trouve des écueils où les entreprises peuvent tomber de manière plus discrète. Weapons of Math Destruction revient par ailleurs sur le cas du fabricant d’imprimantes Xerox. Pour minimiser le taux de renouvellement des 40 000 téléconseillers de son centre d’appel, in fine minimiser leur coût de remplacement, l’entreprise implémente en 2015 une solution de recrutement prédictif calculant notamment un taux de probabilité de la longévité d’un candidat. Sur la base de l’historique des informations personnelles des employés croisées avec le nombre d’années travaillées au sein du centre d’appel, l’algorithme déterminait les facteurs favorables à la longévité d’un candidat. Certains facteurs tels que la longévité des emplois antérieurs ont été mise en avant, Xerox s’est également rendu compte que le modèle tendait à discriminer les individus habitant des quartiers populaires : ces quartiers étant souvent excentrés, leurs habitants avaient tendance à faire de plus longs trajets, ce que l’algorithme a considéré dans sa phase d’apprentissage comme facteur défavorable à la longévité. L’entreprise a depuis entrepris d’extraire du modèle les données relatives au logement.
Corollaire à cet enjeu de creusement des inégalités face à l’emploi, la question de la collecte et du traitement des données personnelles est au centre de cet engouement vers les technologies de recrutement prédictif. Le fait que des informations personnelles telles que l’adresse soient potentiellement utilisées comme facteurs décisifs, à l’insu des personnes concernées, pose question. Ce qui est pernicieux dans ce cas, c’est que l’algorithme en apprentissage automatique tend à produire des biais, ici le lieu d’habitation, qui sont moins facilement détectables, prévisibles et donc corrigibles. Par ailleurs, des critères tels que le quartier d’origine, sont déjà la cause de discrimination à l’embauche puisqu’une étude statistique de l’INSEE datant de 2011 démontre qu’au sein d’un même département (95), les candidats avaient plus ou moins de chance d’obtenir un emploi, toutes choses égales par ailleurs, selon s’ils habitaient une ville ayant été positivement ou négativement médiatisée. Contrairement aux biais sexistes -originaire de l’humain comme de la machine- dont la société a de plus en plus conscience, ces discrètes dérives appellent à une vigilance particulière, s’inscrivant dans le renforcement juridique de l’égalité professionnelle femmes-hommes que porte la loi du 6 août 2019.
Analyse logicielle du langage, tests de personnalités… : à la recherche du standard neurotypique ?
Au sein du groupe l’Oréal, la solution d’entretiens numériques utilisant l’intelligence artificielle de la start-up chinoise Seedlink a été implémentée en seconde phase d’entretien : le service propose “d’analyser les schémas subconscients du langage des individus pour des décisions de recrutement plus rapides et précises”. L’analyse logicielle du langage se base sur les réponses à des questions ouvertes pour fournir un score de prédictibilité de la compatibilité du candidat à la culture et aux valeurs du groupe. Le résultat peut ensuite être utilisé comme facteur de décision par le recruteur, à qui revient la décision finale. Cette utilisation de l’intelligence artificielle pour analyser le langage et déceler des profils psychologiques ou tendances comportementales n’est pas sans rappeler une pratique courante en recrutement : le test de personnalité. Aux Etats-Unis, ces tests sont largement utilisés dans les emplois peu qualifiés avec un important taux de renouvellement des postes. En France, l’article L1221-6 du code du travail définit un périmètre pour ces pratiques de recrutement : « les informations demandées, sous quelque forme que ce soit, au candidat à un emploi ne peuvent avoir comme finalité que d'apprécier sa capacité à occuper l'emploi proposées ou ses aptitudes professionnelles ».
A cet égard, Cathy O’Neil insiste sur le danger de la conversion algorithmique de pratiques de recrutement existantes et probablement biaisée, tels que les tests de personnalités, largement utilisées aux Etats-Unis, notamment sur des emplois peu qualifiés avec un important turnover. En témoigne l’histoire de Kyle Behm, un étudiant atteint du trouble de bipolarité et en recherche d’un emploi étudiant. En postulant à un job de vendeur dans une célèbre enseigne de distribution, l’étudiant est soumis dans ce cadre à un test de personnalité en ligne auquel il échoue. Il postule et échoue systématiquement à six autres enseignes qui le soumettent au même test. Reconnaissant certaines questions similaires au test utilisé à l’hôpital pour détecter son trouble bipolaire, il intente un recours collectif, à l’aide de son père qui est avocat, pour violation de ses droits constitutionnels en vertu de la Loi "Americans with Disabilities Act" de 1990. Toutes les enseignes qui ont utilisé ce test de personnalité bénéficient par ailleurs des services d’une seule et même entreprise de logiciels de recrutement automatisé, Kronos. Inabouti à ce jour, l’enjeu du recours juridique est notamment de déterminer qui de l’entreprise Kronos ou des magasins qui recrutent ont fait preuve de discrimination à l’emploi.
Ce cas précis est révélateur des dangers de l’aspect arbitraire derrière de tels processus de recrutement. De toute évidence, intégrer de l’intelligence artificielle pour analyser ces résultats, déployer des algorithmes d'analyse des CV ou encore des traces des candidats sur les réseaux sociaux, accentuerait le risque de dérives. En l’absence de retours par d’autres entreprises ayant embauché un candidat recalé, comment les modèles peuvent-ils être re-calibré ? Est-il viable sur le long terme de compter sur la vigilance et la bonne volonté des entreprises pour tester leur modèle dans le sens d’une rectification de leurs biais ? Ces pratiques de profilage – existantes indépendamment de l’automatisation, comme le montre cet exemple sur les tests de personnalités– sont définis par l’article 4 du RGPD comme étant un « traitement utilisant les données personnelles d’un individu en vue d’analyser et de prédire son comportement ». A cet égard, l’article 22 garantit la mise en place de règles strictes encadrant la prise de décision automatique suite à un calcul algorithmique, qui ne peuvent faire effet sans intervention humaine préalable, à quelques exceptions près.
Illustration : Where's Wally? cc-by-sa Steve Garvie from Dunfermline, Fife, Scotland (Wikimedia Commons)