Recrutement par IA : gare à la discrimination artificielle

L’utilisation de l’IA dans le recrutement n’est certes pas une nouveauté, mais jusque-là ces applications s’en étaient tenues aux phases de recherche d’offres, de présélection ou d’évaluation de candidatures en ligne, toujours en amont de l’entretien d’embauche proprement dit, le domaine réservé du recruteur. Au-delà de la fascination ou de la défiance vis-à-vis de ces nouveaux outils, leur déploiement appelle beaucoup de questions pratiques :  que mesurent-ils au juste chez les candidats ? Est-ce toujours pertinent du point de vue professionnel et par rapport au poste considéré ? Respectent-ils seulement les droits des candidats ? Ces solutions se déploient aussi rapidement que discrètement, pour l’instant dans des pays à la réglementation des données personnelles plus flexible qu’en France, et sans s’entourer, semble-t-il, de la rigueur de construction ou des précautions d’utilisation auxquels les procédures d’évaluation classiques, comme les tests psychométriques, par exemple, sont assujetties.

 

Avant tout, il convient de lever quelques possibles malentendus concernant l’évaluation des entretiens vidéo par l’IA. D’abord, ce ne sont pas tout à fait des entretiens vidéo, mais plutôt des candidatures vidéo. Les candidats les réalisent en ligne, sur une plateforme dédiée, en suivant une trame de questions prédéfinies. Ensuite, l’IA n’élimine pas automatiquement des candidatures vidéo au terme de son évaluation ; elle leur attribue des scores et les classe par ordre de performance pour analyse ultérieure par les recruteurs. Enfin, ces « entretiens vidéo » n’ont pas vocation à remplacer les entretiens physiques avec les recruteurs et les managers. Les candidats sélectionnés par l’IA n’échapperont pas à des entretiens d’embauche avec des êtres humains à l’issue du processus de sélection, ne serait-ce que pour faire connaissance avant de s’engager mutuellement.

 

L’adoption de ces nouvelles technologies par le grand public ne va pas de soi. C’est pourquoi les entreprises utilisatrices justifient volontiers leur recours par la prétendue neutralisation des biais humains, notamment discriminatoires, dans les évaluations menées par l’IA. C’est oublier que les premières expérimentations de recrutement par IA ont démontré qu’elles véhiculaient également des biais discriminatoires. Pire encore, l’industrialisation de la sélection donne à ces mécanismes discriminatoires une plus grande ampleur, d’autant plus inquiétante qu’ils ne sont pas toujours visibles immédiatement et quasi impossibles à corriger.

 

Le problème se niche dans le fonctionnement même de ces solutions, qui ne s’embarrassent pas d’identifier les critères prédictifs de réussite ou d’analyser toutes les compétences objectives nécessaires poste par poste pour les évaluer chez les candidats potentiels. Le machine-learning s’affranchit totalement de ces précautions en se basant exclusivement sur les expériences de succès antérieurs au sein de l’entreprise pour calibrer son analyse. C’est donc à partir de données issues de collaborateurs « en réussite » que l’algorithme construit le modèle de candidat idéal, dont il s’appliquera à identifier des clones parfaits en fonction des masses d’informations auxquelles il a accès. Sans même s’attarder sur la pertinence ou la fiabilité des données considérées pour cette évaluation (en eux-mêmes sujets à débats), le principe de modéliser les populations « à succès » pour les reproduire, si elle revêt l’apparence du bon sens, est la plus pernicieuse qui soit. Elle aboutirait par exemple à exclure les femmes des postes avec du management sous prétexte qu’elles sont moins représentées aujourd’hui dans les populations de managers, du fait de dynamiques discriminatoires antérieures.

 

En outre, et bien qu’il n’entre aucun critère discriminatoire direct dans la programmation de ces algorithmes, la multitude des données analysées par une IA recèle nécessairement des indices de notre genre, de notre âge ou de notre origine, par exemple, et cela même si l’on s’en tient à une simple analyse sémantique du discours. À  l’insu de leurs concepteurs, ces indices contribuent à la définition du modèle de réussite niché au cœur de l’algorithme, dont les biais, inaccessibles aux programmateurs eux-mêmes, ne peuvent se révéler qu’à travers l’analyse des résultats. C’est ainsi que les premières expérimentations de recrutement par IA, comme chez Amazon par exemple, ont tourné court en dépit de solides cautions scientifiques et des meilleures intentions du monde : les discriminations produites étaient trop patentes. Aujourd’hui, avec les dernières générations d’IA évaluatrice, le risque de discrimination systémique persiste, même si les biais sont devenus plus difficiles à percevoir, posant même de nouvelles questions de fond. Comme la pertinence de la reproduction à l’identique des populations de collaborateurs « à succès » pour la performance ou la pérennité de l’entreprise. Ces effets-là pourraient ne se manifester qu’à long terme avec de probables impacts sur la capacité à s’adapter ou à innover pour les entreprises. Et une impossibilité de fait pour certaines populations de candidats d’y entrer en dépit de leur potentiel et de leur motivation.

 

Pourtant, à la faveur de l’engouement des entreprises pour l’IA et du volontarisme de start-up décomplexées, de tels outils sont de plus en plus utilisés aujourd’hui, y compris en Europe, profitant parfois d’un cadre réglementaire inadapté au mode de fonctionnement de ces nouvelles technologies.

 

En France, ce déploiement est freiné par la réglementation très stricte en matière de recrutement et de discrimination. Ces solutions ne peuvent en effet pas garantir que les candidats ne sont évalués que sur des compétences professionnelles en rapport direct avec le poste considéré et selon des méthodes « pertinentes » comme l’exige la Loi. En outre, si une entreprise utilisatrice venait à être mise en cause pour discrimination à l’embauche et placée dans l’obligation de s’en justifier, elle serait dans l’incapacité de prouver sa bonne foi car le mécanisme de la discrimination potentielle resterait inaccessible du fait de l’effet « boîte noire » du machine-learning. Et d’ailleurs, qui de l’éditeur ou de l’entreprise, du recruteur, ou même du développeur, devrait endosser la responsabilité d’une discrimination avérée ? En tout cas pas l’IA.

 

À défaut d’être en mesure de maîtriser les biais discriminatoires indirects, les éditeurs et les entreprises utilisatrices de ces solutions s’entourent de toutes les précautions juridiques dans leur mise en œuvre, ne serait-ce que pour se protéger des éventuelles conséquences. À commencer par la validation du consentement explicite des candidats, comme la réglementation l’impose dans de nombreux pays d’ailleurs. Mais pour des candidats désireux de rejoindre une belle entreprise, l’option de refuser le processus de recrutement proposé est-elle vraiment envisageable ? Comme pour la mise en œuvre du RGPD, qui n’a fait que rajouter un clic de consentement à notre routine de navigation sur le web, il ne s’agit là que d’une illusion de choix. Conséquence : si les entreprises sont juridiquement à l’abri, les candidats restent seuls exposés aux risques de ces technologies encore mal maîtrisées.

 

Bien sûr, ces outils restent officiellement une « aide à la décision » et l’IA n’élimine pas automatiquement des candidatures en phase de présélection. C’est vrai, mais en apparence seulement. Car les entretiens vidéo évalués par l’IA peuvent durer jusqu’à 30 minutes et leur nombre est nécessairement important puisque la finalité même de l’outil est d’analyser un plus grand nombre de candidatures. Il est dès lors « humain », pour un recruteur, de concentrer ses efforts sur les candidatures les mieux notées par l’IA, pour s’épargner des heures, voire des journées entières, de visionnage. Le scoring des candidatures sur la base de tests en ligne ou d’analyse sémantique des CVs, qui existe déjà depuis longtemps, avait abouti exactement au même effet. Cependant, avec les CVs, les recruteurs gardaient encore la possibilité de passer en revue toutes les candidatures, du moins en théorie, à raison de quelques secondes par CV. Avec les candidatures vidéo, cela devient impossible.

 

Ainsi, même si la corrélation n’est pas directe, l’IA écarte de fait les candidatures « mal notées » du processus d’évaluation. L’IA évaluatrice de candidatures vidéo prend bel et bien les commandes du processus de recrutement.

 

Cédric Mendes, DG du cabinet de recrutement Scalliance