Comment l'IA filtre des millions de candidats qualifiés hors de la main-d'œuvre

Jean Delaunay

Comment l’IA filtre des millions de candidats qualifiés hors de la main-d’œuvre

Certains candidats utilisent des astuces telles que la « police blanche » ou copient et collent des offres d’emploi dans les CV, les cachant des yeux humains pour essayer de passer outre les robots IA. Mais pourquoi les gens le font-ils et est-ce que ça marche ?

Faites défiler les médias sociaux assez longtemps, et il ne faudra pas longtemps pour trouver des influenceurs jaillissant d’astuces et de conseils sur la façon dont leurs téléspectateurs peuvent décrocher l’emploi de leurs rêves. Ils doivent d’abord passer le filtrage de leurs candidatures par l’IA.

Leurs conseils sont le sous-produit d’une préoccupation réelle – que les candidats qualifiés pourraient être exclus du processus d’embauche avant que leurs candidatures ne soient vues par des yeux humains.

L’utilisation de technologies telles que l’ATS ou le système de suivi des candidats est répandue. Selon l’étude « Hidden workers : untapping talent » de la Harvard business school, 99 % des entreprises du Fortune 500 utilisent ATS lorsqu’elles recherchent de nouvelles recrues. Et 63 % des pays interrogés en Allemagne, aux États-Unis et au Royaume-Uni font de même.

Selon Manjari Raman – l’un des chercheurs à l’origine de cette étude et directeur principal du programme Managing for the Future of Work Project à la Harvard Business School – les entreprises se tournent vers ces systèmes automatisés car ils sont parfois inondés d’applications.

« Mais lorsque ce système automatisé a la responsabilité de prendre des milliers de candidats et de les filtrer jusqu’aux cinq premiers choix… Eh bien, ce qui se passe maintenant, c’est que la technologie cache des travailleurs qui pourraient occuper ce poste, qu’ils aient des compétences élevées ou intermédiaires. , et c’est un problème », explique-t-elle.

Les travailleurs qualifiés laissés pour compte

Il y a aussi un côté obscur bien documenté à cette technologie – parfois être qualifié ne suffit pas pour décrocher un entretien d’embauche.

En 2018, Amazon s’est rendu compte que le logiciel de recrutement qu’il développait depuis quatre ans notait les candidates qualifiées en dessous de leurs homologues masculins.

La raison en était simple. L’IA a été formée sur les antécédents d’embauche de l’entreprise, et puisque les hommes dominent l’industrie de la technologie, elle a décidé que les candidats masculins étaient préférables aux candidats féminins.

La même année, les auditeurs d’un autre outil de sélection ont découvert que le logiciel classait les personnes portant le nom de Jared et ayant joué à la crosse au lycée plus favorablement que les autres candidats.

AP Photo
Les clients peuvent optimiser leur ciblage publicitaire pendant les périodes de trafic élevé, réduisant ainsi le coût par application.

Selon Kerry McInerney, chercheur au Leverhulme Center for the Future of Intelligence de l’Université de Cambridge, l’IA peut même perpétuer la discrimination lorsque ses développeurs la conçoivent pour faire le contraire.

« L’une des affirmations que les entreprises font à propos des outils de recrutement basés sur l’IA est que, contrairement à un recruteur humain, un outil basé sur l’IA ne voit pas le sexe et ne voit pas la race ou d’autres caractéristiques à notre sujet », a déclaré McInerney à L’Observatoire de l’Europe.

« Mais je suis vraiment sceptique quant à cette idée selon laquelle les technologies sont intrinsèquement plus objectives que les recruteurs humains, car elles sont finalement formées sur les mêmes données biaisées produites par les recruteurs humains. »

Elle a ajouté qu’à cause de cela, de nombreuses entreprises « investissent leurs ressources dans l’achat d’outils qui ne fonctionnent pas plutôt que d’investir dans des stratégies éprouvées et vraies de diversité et d’inclusion dont nous savons qu’elles fonctionnent ».

À quel point l’IA est-elle intelligente ?

Selon l’étude de Harvard mentionnée précédemment, il y a aussi des millions de personnes à travers l’Europe et les États-Unis classées comme «travailleurs cachés», ou des personnes qualifiées qui sont exclues du processus de candidature en raison de choses comme de grandes lacunes dans leur CV.

ATS peut également rejeter des candidats en raison d’offres d’emploi longues et verbeuses.

« Les systèmes ATS, comme presque toutes les formes d’intelligence artificielle, ne pensent pas. Ils ne raisonnent pas. Ils ne sont pas intelligents dans la façon dont les humains pensent à l’intelligence », a déclaré Joseph Fuller, professeur de pratique de gestion à la Harvard Business School. L’Observatoire de l’Europe.

« Beaucoup de problèmes liés à l’intelligence artificielle dans l’embauche incombent en fait à l’employeur, pas à la technologie.

« Les descriptions de travail sont ingérées par la façon dont elles sont écrites, et la technologie prend un langage dans cette description de travail et la traite plus ou moins comme une écriture. »

Euronews
L’étude de la Harvard Business School a révélé que de nombreuses entreprises savent que les candidats qualifiés sont éliminés

Par exemple, chez L’Observatoire de l’Europe, nous avons récemment essayé de voir dans quelle mesure l’un de nos journalistes était réellement embauchable lorsqu’il postulait pour un emploi comparable à un poste qu’il occupait déjà.

Nous avons diffusé leur CV via Jobs Scans, un site Web qui prétend aider les gens à passer les contrôles ATS. Et nous lui avons demandé de classer cette personne comme un candidat possible pour une offre d’emploi réelle.

Mais ils ont été classés parmi les candidats les plus bas parce que le poste demandait une expérience internationale, et le filtre ATS a estimé que le journaliste ne remplissait pas cette exigence alors qu’il avait auparavant travaillé dans cinq pays différents.

« Dans ce cas, je pense que l’IA était confuse. Elle ne considère pas la vie dans un pays comme un voyage », a déclaré Fuller. « Donc, si le candidat avait dit: » J’ai beaucoup voyagé tout en étant basé dans cinq pays différents « . Je suppose que cela aurait abouti à une conclusion différente. »

La « police blanche » fonctionne-t-elle réellement ?

Certaines personnes essaient de contourner cet obstacle en utilisant une « police blanche », ou en copiant et collant une offre d’emploi dans leur CV en petite police et en la cachant à l’œil humain en changeant la couleur en blanc.

L’idée derrière cela est que même si le recruteur ne pourra pas le voir, le logiciel de dépistage de l’IA le fera. Et leur CV serait craché comme un candidat possible pour le rôle.

Mais malgré les vidéos revendiquant le taux de réussite de la « fonte blanche », il s’agit plus d’un « mythe » que d’un fait.

« C’est maintenant un peu une légende urbaine », a déclaré Fuller. « De plus en plus de recruteurs dans les grandes entreprises scannent une candidature entière, puis changent tout le texte (en une couleur différente) afin que la « police blanche » soit exposée.

« De plus, si vos antécédents professionnels réels ne correspondent pas très bien aux exigences du poste et que vous bluffez en vous frayant un chemin dans le processus d’entretien, vous risquez en fait de ne pas réussir. »

Au lieu de « police blanche », Fuller suggère que les employés pleins d’espoir consultent les profils LinkedIn de personnes exerçant déjà le travail souhaité dans l’entreprise concernée et reproduisent la façon dont ils décrivent leurs compétences et leur poste.

AP Photo
Le logo OpenAI est visible sur un téléphone portable devant un écran d’ordinateur affichant la sortie de ChatGPT

Selon Gracy Sarkissian, directrice exécutive du Wasserman Center for Career Development à NYU, « les candidats peuvent également profiter de nouveaux outils comme ChatGPT pour soutenir leur recherche d’emploi.

« ChatGPT peut permettre aux candidats d’identifier les intitulés de poste et les opportunités potentiels, d’analyser les offres d’emploi pour les aider à déterminer les compétences à mettre en avant, de prévoir les questions d’entretien, de traduire les documents de candidature dans différentes langues et de fournir des informations nuancées sur les salaires. »

Et pour les quelque 27 millions de « travailleurs cachés » aux États-Unis et les cinq autres millions au Royaume-Uni et en Allemagne, Fuller leur recommande d’essayer de contourner les robots IA en comblant l’écart dans leurs CV.

Par exemple, il a suggéré qu’ils pourraient retourner sur le marché du travail en trouvant un travail à la demande, un emploi à temps partiel ou en étudiant pour suivre un cours pendant qu’ils cherchaient un nouvel emploi.

Essayer de réguler l’IA

Mais, selon Raman, au-delà de cela, il y a en fait très peu de choses qu’une personne dans une position similaire à celle des « travailleurs cachés » peut faire si elle continue d’être exclue du processus d’embauche.

« Les employeurs ont très peu de capacité, de pouvoir ou d’agence, ce sont eux qui souffrent à cause de ce problème », a-t-elle déclaré.

« Mais dans le cas des employeurs, c’est une blessure auto-infligée et les employeurs sont les seuls à pouvoir apporter des changements. »

Certaines régions et certains pays tentent de remédier à ce déséquilibre des pouvoirs en s’efforçant de réglementer cette technologie en constante évolution.

Les responsables de l’Union européenne travaillent sur des règles révolutionnaires pour réglementer l’IA qui pourraient devenir la norme de facto pour les pays du monde en raison de la taille du bloc des 27 nations et de son marché.

Aux États-Unis, la ville de New York travaille sur une loi qui obligerait les entreprises à informer les candidats que leurs candidatures sont examinées par l’IA. Et l’Illinois a promulgué une loi obligeant les entreprises à informer les gens que leurs candidatures seront examinées par l’IA et à obtenir leur consentement.

La Chine rédige également des réglementations exigeant des évaluations de sécurité pour tous les produits utilisant l’IA, tandis que le chien de garde de la concurrence du Royaume-Uni a ouvert un examen du marché.

Laisser un commentaire

2 × cinq =