Avant que l’IA ne prenne votre emploi, elle prend votre candidature

Dans The Algorithm, Hilke Schellmann expose les recruteurs de robots qui se tiennent entre vous et le travail de vos rêves.
Avant que l’IA ne prenne votre emploi, elle prend votre candidature
Photo: Christin Hume (Autre)
Nous pouvons gagner une commission sur les liens sur cette page.

Fin 2017, Hilke Schellmann clôturait une conférence à Washington, DC, lorsqu’elle s’est rendue à la gare. Le cinéaste et professeur de journalisme à l’Université de New York a sauté dans son Lyft, a demandé au chauffeur comment il allait et a été rencontré avec un pause. Cela avait été une journée étrange, répondit-il. Il avait postulé pour un emploi de bagagiste à l’aéroport local, et cet après-midi-là, il avait été appelé pour un entretien avec un robot.

Schellmann était intriguée. En avril suivant, elle assisterait à sa première conférence technologique des RH, où elle regardait une entreprise appelée HireVue présenter un un nouveau type d’interview vidéo : une qui utilisait l’IA pour analyser les mouvements du visage et le ton de voix des candidats afin de déterminer dans quelle mes ils correspondaient Cette analyse pouvait être utilisée pour faire ou refuser une offre d’emploi. « Cela semblait comme par magie », se souvient Schellmann. Mais quand elle a commencé à poser des questions sur la science derrière l’analyse, dit-elle, et elle a réalisé qu’il n’y en avait pas.

Maintenant une gamme de logiciels RH promet que l’IA peut aider les entreprises à recruter de meilleurs employés que les humains. les employeurs l’utilisent pour prendre des décisions d’embauche, a estimé Charlotte Burrows, présidente de la Commission américaine pour l’égalité des chances en 2023. Aujourd’hui, des robots examinent nos CV et enregistrez nos premiers entretiens pour recommander les meilleures recrues. Mais ils ne s’arrêtent pas là: Certains nous demandent de jouer Jeux vidéo IA, où gonfler un ballon virtuel est censé mettre en lumière sur vos aptitudes professionnelles. Certains écoutent nos appels d’entretien, évaluant nos paroles à prédisez nos compétences générales. D’autres encore analysent nos réseaux sociaux en un éclair et compilent des profils de personnalité de style Cambridge Analytica pour nos futurs employeurs. je n’ai pas besoin de notre permission pour commencer – et nous ne saurons souvent jamais que nous avons été évalués par un algorithme.

Dans son nouveau livre, L’algorithme : comment l’IA décide qui sera embauché, surveillé, promu et licencié et pourquoi nous devons riposter maintenant, Schellmann scrute dans la boîte noire décidant si ou non nous obtenons un emploi – et constat que les machines sont tout aussi imparfaits en tant que personnes qui les construisent. Se présentant comme candidate, elle découvre leurs défauts de première main : les outils de transcription lui donnent des notes élevées en anglais. après elle leur parle en allemand; les examinateurs des réseaux sociaux crachent des profils de personnalités opposés selon qu’ils regardent son Twitter ou son LinkedIn.

Pendant ce temps, Schellmann s’entretient avec plus de 200 personnes (avocats du travail, psychologues organisationnels, régulateurs, recruteurs, candidats et les fabricants de machines eux-mêmes) pour découvrir comment ces outils non seulement reproduisent les préjugés humains, mais produisent des façons entièrement nouvelles de discriminer.

Quartz a parlé avec Schellmann de la comment le recrutement en est venu à impliquer moins d’humains et plus d’ordinateurs, ainsi que de ce que les candidats à un emploi peuvent faire pour reprendre. un certain contrôle. Cette interview a été éditée et condensée pour plus de longueur et de clarté.

Quartz : La grande majorité des chercheurs d’emploi rencontrent une sorte d’IA lorsqu’ils recherchent des postes ouverts. (Toutes les grandes plateformes d’emploi, comme LinkedIn, En effet,ZipRecruiter et Monster confirment qu’ils utilisent l’IA, bien qu’ils ne soient pas tenus de divulguer exactement où ou comment cela fonctionne. )Pourquoi les entreprises achètent-elles des outils d’IA supplémentaires auprès de fournisseurs ?

Hilke Schellmann : L’avènement des sites d’emploi comme LinkedIn et Monster a été merveilleux pour les candidats : vous pouvez envoyer votre CV à de très nombreuses personnes. des personnes et des emplois chaque jour. D’un autre côté, cela a conduit les entreprises à avoir le sentiment d’être [inondées] et qu’elles peuvent lisez-les tous. Par exemple, Google affirme qu’ils reçoivent environ 3 millions de candidats chaque année. Il n’y a aucun moyen pour les recruteurs humains de à travers tous ces CV ou candidatures, et ces entreprises ont donc besoin d’une solution technologique.

C’est à cela que répondent les fournisseurs d’IA : « Hé, nous avons une excellente solution. Elle est efficace, elle vous permettra d’économiser de l’argent et il trouvera les candidats les plus qualifiés pour le poste sans aucun préjugé. et permet d’économiser beaucoup d’argent. Nous n’avons pas trouvé beaucoup de preuves pour prouver qu’il trouve les candidats les plus qualifiés, ou qu’il y a moins de biais.

Les outils d’IA sont construits sur des données humaines. Dans le cas des examinateurs de CV, par exemple, l’IA est formée sur les CV des étudiants en cours. employés et leur a appris à rechercher des modèles parmi eux. Dans certains cas, cela peut refléter des disparités existantes chez nous ; dans plus d’un Dans ce cas, l’IA formée sur les données d’une équipe à prédominance masculine a appris à déclasser les femmes. Dans certains cas, elle peut produire des préjugés entièrement nouveaux. Comment ces défauts sont-ils détectés ?

De temps en temps, les entreprises font appel à des conseillers et des avocats externes pour évaluer ces outils. aucun des outils qu’il a examiné quand il était avocat du travail étaient prêts à être utilisés aux heures de grande écoute. [Auditeur de logiciels] John Scott, le COO de [La société de conseil en ressources humaines]APTMetrics a examiné cinq filtres de CV et a trouvé des problèmes dans chacun d’entre eux.[Le lanceur d’alerte et ancien avocat spécialisé en droit du travail]Ken Willner a déclaré qu’il avait trouvé des variables problématiques dans environ un quart d’entre eux. Ce n’est pas un hasard, c’est en fait une tendance selon laquelle les choses tournent mal. Ces outils entraînent des préjugés, ainsi qu’une discrimination et des préjudices possibles.

Willner était vraiment inquiet quand il a regardé l’un des écrans de CV et a découvert que l’une des variables prévues était le mot « Afrique », [comme dans « Africain » et « Afro-Américain ». Cela constituerait une discrimination raciale. Notre couleur de peau ne devrait avoir rien à voir avec que nous soyons choisis ou rejetés pour un emploi. [Un autre évaluateur] a constaté que le mot « Thomas » dans un écran de sélection de CV était prévisible. Mes excuses à tous les Thomas là-bas, mais le nom Thomas ne vous qualifie pour aucun emploi.

Quelque chose d’autre qui m’a choqué, c’est que les cas de biais dans les outils d’IA n’ont jamais été découverts par le fournisseur lui-même, selon Willner. Ils ont été trouvés exclusivement lorsqu’une entreprise utilisant l’outil a fait appel à un auditeur tiers.

De nombreux [ce que j’appelle des outils d’IA prédictive] utilisent l’apprentissage automatique, et ils utilisent souvent des réseaux neuronaux profonds. Ainsi, les développeurs eux-mêmes souvent, ils ne savent pas exactement ce que les outils prédisent réellement [ou] comment ils parviennent aux résultats de leurs conclusions. Je pense que tout cela devrait inquiète nous.

Vous écrivez également sur la manière dont ces outils laissent une énorme quantité d’espace pour discriminer les personnes handicapées et semblent respecter les règles juridiques. les radars le font.

Les personnes handicapées constituent une part importante de la population : environ 10 à 20 % aux États-Unis, peut-être même plus. Les handicaps peuvent être visibles. , invisible, physique, mental ; il y a toutes sortes de variations, [et] le handicap peut s’exprimer de manière très différente. , et mes données sont introduites dans un système d’IA, cela ne signifie pas en réel que les personnes autistes sont représentées de manière adéquate dans le données de formation. Il existe une expression individuelle du handicap qui ne peut pas être représentée de manière adéquate dans un système qui recherche des modèles statistiquement pertinents.

Je pense que beaucoup de gens du côté du recrutement disent : « Eh bien, la loi dit que les personnes qui ont un handicap peuvent avoir un un aménagement raisonnable » – par exemple, si vous faites un entretien vidéo à sens unique et êtes sourd ou malentendant, ou si vous avez un troubles de la parole, peut-être que l’entreprise mettrait un humain à l’autre bout du fil. Mais ce que j’ai appris en parlant à des conseillers professionnels qui travaillent avec des personnes handicapées, c’est tragiquement qu’à chaque fois qu’on leur demande un aménagement raisonnable, ce qui est la loi, ils ne l’ont jamais fait. j’ai eu une réponse. Je pense que cela devient de plus en plus difficile parce que nous avons de plus en plus d’écrans automatiques dans le pipeline d’embauche.

Alors, comment les candidats peuvent-ils retrouver une certaine agence ou avoir le sentiment qu’ils peuvent faire quelque chose pour mieux s’équiper pour que l’IA lise leur candidature ? ?

Il y a quelques leçons à tirer ici pour les demandeurs d’emploi. outil en utilisation.

Nous avions l’habitude de dire aux gens : “Oh, faites en sorte que votre CV se démarque ; rendez-le accrocheur." CV lisible par machine. Pas deux colonnes, juste une colonne ; texte clair ; phrases courtes et claires. Utilisez des informations facilement quantifiables. Si vous avez une licence, par exemple une licence d’infirmière, indiquez-la là-bas. Peut-être même, indiquez-y les numéros de licence pour qu’un ordinateur puisse les consulter. que vous êtes autorisé à exercer, ou quelque chose comme ça.

Je pense que pour beaucoup de gens, il est vraiment stimulant d’utiliser ChatGPT et d’autres IA génératives pour relire leur CV [ou leur brouillon] de couverture. lettres. Il y a des blagues sur les plateformes d’emploi où les gens plaisantent, du genre : « Oh ouais, que la meilleure IA gagne… ma lettre de motivation est écrite. par l’IA, et les entreprises utilisent toutes l’IA [pour le lire]. L’IA générative a légèrement modifié l’équilibre des puissances.

Honnêtement, la lecture de certains de ces logiciels d’IA me donne un sentiment très dystopique, mais il est agréable de savoir que ces outils destinés au public ont l’a démocratisé, ne serait-ce qu’un peu.

Je pense que nous n’en sommes qu’au début et que nous retirons maintenant les erreurs. Peut-être que nous déplaçons un peu ce rideau de secret et pour montrer : « Hé, c’est ce qui se passe déjà. Nous voyons tous ces problèmes. » Poussons pour certains changements, comme , faisons pour plus de transparence, peut-être plus de réglementation. Mais faisons également faire pression sur les entreprises pour qu’elles fassent la bonne chose.

Pendant que j’écrivais le livre, je me disais : « Je pense qu’il doit y avoir de grandes organisations de la société civile qui testent ces des outils, mais aussi créer des outils dans l’intérêt public. » Alors peut-être, vous savez, quelqu’un ou une organisation pourrait créer un outil comme un outil de sélection de CV qui ne soit pas biaisé. Peut-être pourrions-nous mettre cela dans l’intérêt public, dans le domaine public, et pousser les entreprises à utiliser des outils qui ne sont pas discriminatoires.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité

Publicité