
L'IA oblige les recruteurs à passer à l'analogique en raison de la surcharge de travail. Les recruteurs croulent sous les candidatures en raison de la forte augmentation du nombre de chômeurs dans le secteur de la technologie et de l'essor des outils d'IA générative qui permettent aux demandeurs d'emploi de postuler en masse à des postes. Bien que l'IA promette de rationaliser le processus d'embauche en automatisant des tâches comme la sélection des CV et le contact avec les candidats, elle est source de frustration pour de nombreux recruteurs. Ces derniers se détournent totalement de l'IA en raison des inquiétudes liées à sa maturité et au risque de partialité.
L'IA générative a bouleversé le marché de l'emploi, notamment avec des changements majeurs dans le processus de postulation aux offres d'emploi et le processus d'embauche. La technologie permet désormais aux demandeurs d'emploi de générer rapidement des CV et des lettres de motivation afin de postuler en masse à des postes. Il existe également des outils d'IA pour les recruteurs. Ces outils viennent s'ajouter aux outils qui visent à automatiser le processus de recrutements, ce qui amène certains travailleurs à se demander si c'est une personne ou un robot qui consulte leur CV.
Du côté des recruteurs, il n'est pas rare que des postes dans la technologie reçoivent aujourd'hui des centaines ou des milliers de candidatures. Par exemple, des recruteurs signalent qu'ils sont confrontés à une multitude de CV envoyés par le biais d'outils tels que la fonction Easy Apply de LinkedIn, qui permet aux gens de postuler rapidement à des emplois sur la plateforme. Les rapports sur le sujet indiquent que cela entraîne une avalanche de CV que les recruteurs n'ont tout simplement pas le temps d'examiner. En outre, l'une des principales préoccupations est le volume considérable de candidats non qualifiés.
Certains demandeurs d'emploi utiliseraient même l'IA pour répondre aux tâches d'évaluation complexes lors des processus d'embauche, ce qui brouille encore davantage les pistes et fait perdre du temps à tout le monde. Par exemple, Wired rapporte que 3 000 personnes ont postulé cette année à un poste vacant en science des données au sein d'une entreprise américaine spécialisée dans les technologies de la santé. Les meilleurs candidats ont été soumis à une évaluation longue et complexe, que très peu ont réussie. Mais de nombreux candidats sont suspectés d'avoir fait appel à des outils d'IA pour réussir l'évaluation.
Selon le recruteur, certains des candidats ayant réussi le test ont peut-être eu recours à l'IA pour résoudre les problèmes. Le recruteur a déclaré que certaines formulations étaient bizarres, que des candidats ont révélé avoir eu recours à l'IA et que, dans un cas, lorsque la personne est passée à l'entretien suivant, elle n'a pas pu répondre aux questions concernant la tâche à accomplir. « Non seulement ils ont perdu leur temps, mais ils m'ont aussi fait perdre le mien. C'est vraiment frustrant », a-t-il déclaré. Le recruteur a ajouté que la fonction Easy Apply de la LinkedIn envoie trop de candidats non qualifiés à son équipe.
LinkedIn a lancé un nouveau chatbot d'IA au début de l'année. Selon l'entreprise, l'outil est destiné à aider les gens à s'orienter dans leur recherche d'emploi. L'espoir était qu'il aiderait les gens à mieux voir s'ils correspondent bien à un poste ou à mieux adapter leur CV à ce poste, en soulevant le rideau qui sépare un demandeur d'emploi du processus d'embauche. Indeed a également annoncé de nouveaux outils d'IA en avril. Mais les analystes affirment que ces changements ne résoudront peut-être pas tous les problèmes auxquels sont confrontés les recruteurs, car les outils proposent des profils qui ne sont pas adaptés.
Outre les profils non qualifiés, certains recruteurs rapportent qu'ils sont également confrontés à l'afflux d'imposteurs en provenance d'Asie. Les imposteurs utiliseraient des outils d'IA générative et des deepfakes générés par l'IA pour postuler à des emplois à distance. Le FBI a mis en garde contre ce phénomène dans un avis de sécurité publié en juin 2022, affirmant que les imposteurs ont pour but de voler les données sensibles des entreprises. Voici ci-dessus le témoignage d'un recruteur qui dit être de plus en plus contre à ce problème :
Un nouveau problème auquel je suis confronté en matière d'embauche est l'afflux d'imposteurs en provenance d'Asie. Tout ce qu'ils prétendent est faux, qu'il s'agisse de leur nom, de leur nationalité, de leur lieu de résidence, de leur photo ou de leurs antécédents professionnels. Ils créent même de faux sites d'entreprise.
Et bien sûr, ils font appel à des diplômés en droit pour les aider à passer l'entretien. Je suppose que c'est pour pouvoir escroquer des entreprises crédules et peut-être faire de l'espionnage. Je n'en sais rien. Je n'ai jamais vu quelqu'un essayer de simuler sa voix et son apparence, mais je suppose que c'est une question de temps.
Signes révélateurs : un anglais guindé, une mauvaise connexion Internet, un manque de connexions LinkedIn et l'impossibilité d'approfondir leur fausse histoire. L'un d'entre eux a affirmé avoir contribué à un projet de BI open source lorsqu'il travaillait chez Facebook, j'ai donc consulté son référentiel GitHub et je lui ai demandé de me montrer son code.
L'intéressé a protesté en disant : « c'est sur Gitlab ». Ce à quoi j'ai répondu : non, ce n'est pas le cas ; je le regarde sur GitHub. Un autre candidat a prétendu qu'il a travaillé comme ingénieur front-end chez Netflix. J'ai répondu : super, j'ai des amis là-bas. Dans quelle équipe étiez-vous ? Il a répondu : « l'équipe front-end ».
J'ai poursuivi : j'ai compris que vous êtes un ingénieur front-end, mais quelle était votre équipe ? Et encore une fois, il a répondu : « l'équipe front-end ». À cet instant, je me suis souvenu de la scène de "Coming to America" où le personnage d'Eddie Murphy est interrogé sur sa formation et répond avec assurance qu'il a fréquenté "l'Université des États-Unis".
Trey Causey, responsable de l'IA responsable chez Indeed, affirme que des ingénieurs, des scientifiques et des chercheurs évaluent l'équité du système et que l'entreprise prend en compte les commentaires des internautes sur les moyens d'améliorer ses systèmes d'IA générative. « Toutefois, aucun système ne peut être totalement impartial, car il n'existe pas de définition unique de la partialité et les définitions sont souvent contradictoires », ajoute-t-il. Ces outils peuvent favoriser les profils les plus...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.