L’IA est devenue un partenaire fiable dans le processus de recrutement. Il scanne des milliers de CV, identifie des candidats compétents, et aide les entreprises à prendre des décisions plus rapidement. Dans un marché compétitif, où des entreprises comme Google et McKinsey reçoivent des millions de candidatures chaque année, l’IA est l’option la plus adaptée.
Mais que se passe-t-il quand cette confiance est brisée ?
Récemment, une poursuite judiciaire contre une entreprise de logiciel RH, a relancé le débat sur le rôle de l’IA dans le recrutement. Le demandeur, un homme de plus de 40 ans, d’origine Africaine, qualifié, affirme qu’il a été éliminé par des systèmes algorithmiques à plusieurs reprises. Ces rejections auraient eu lieu, non à cause d’un manque de compétences, mais car le logiciel aurait déduit son âge, ses origines, et son état de santé mentale à partir de son CV.
Il s’agit ici d’une affaire pour l’instant isolée. Mais cela indique un problème plus large : pouvons-nous faire confiance à l’IA pour prendre des décisions d’embauche justes ?
En théorie, l’IA paraît impartiale. Elle traite chaque candidature sans fatigue, distraction et humeur. C’est la raison pour laquelle près de 88% des entreprises utilisent l’IA à un certain stade pendant le recrutement. Mais efficacité ne sous-entend pas égalité.
L’IA apprend à partir de données, et ces données sont formées par des décisions humaines. Si ces décisions portent un préjugé, les algorithmes peuvent l’imiter (et même l’amplifier). Par exemple, si les embauches précédentes d’une entreprise tendent vers un groupe démographique particulier, l’IA formée sur ces données, peut privilégier des profils similaires. Le biais, autrement dit, ne fait pas que persister, il s’amplifie. Un recruteur biaisé peut ignorer une douzaine de candidats qualifiés. Un algorithme biaisé peut éliminer des millions avant même qu’un humain ne le remarque.
Ces risques ne sont pas hypothétiques. Dans un cas, la modification uniquement de la date de naissance dans un CV à changé le résultat de l’embauche. Dans un autre cas, l’AI a préféré des loisirs comme le « baseball » au « softball » , une imitation de pratiques passées d’embauche genrées. Ces exemples illustrent comment des données apparemment neutres peuvent refléter et renforcer les préjugés.
Le coût du biais dans le recrutement dans des entreprises américaines est estimé à 64 milliards de dollars par an. Quand l’IA ajoute des complexités et opacités au processus, cela introduit des nouveaux risques juridiques et réputationnels. Les régulateurs et les tribunaux se posent de plus en plus la question de savoir si les systèmes d’IA sont discriminatoires, par intention ou négligence.
Donc, qui est tenu responsable si l’IA se trompe ?
Pas seulement la technologie. La responsabilité revient aux personnes qui créent, déploient et surveillent ces systèmes – les développeurs, vendeurs, responsables RH, ainsi que les cadres dirigeants. Le biais peut être créé par des données d’enseignement défectueuses, une conception négligente du modèle, ou une précipitation pour mettre en œuvre des outils insuffisamment testés. Sans surveillance constante, même des systèmes bien intentionnés peuvent causer des dommages.
Cela ne veut pas dire qu’il faut abandonner l’IA. Lorsqu’elle est conçue est mise en œuvre de manière réfléchie, l’IA peut améliorer les résultats d’embauche. Les études montrent que les candidats qui réussissent leurs entretiens avec les logiciels d’IA parviennent également à réussir leurs entretiens face à une personne. L’IA augmente le champ de recrutement, et met en avant des candidats qui auraient pu être négligés.
L’important est de comprendre l’IA comme une aide, pas un moyen de remplacer le raisonnement humain. C’est-à-dire, intégrer des normes éthiques dans chaque étape du développement et de l’utilisation. Les entreprises devraient régulièrement auditer les systèmes, assurer une transparence avec les candidats, et maintenir le contrôle humain dans les décisions finales.
La direction joue ici un rôle essentiel. Des questions comme « Qui a entraîné ce modèle ? » « Quelles données ont été utilisées ? » « Comment l’égalité est-elle mesurée ? », font la différence entre un système qui amplifie le biais et un système qui soutient l’équité.
Au mieux de sa forme, l’IA peut aider les entreprises à construire des équipes plus diverses et dynamiques. Mais ce potentiel sera seulement réalisé quand la technologie sera appliquée avec soin, clarté, et responsabilité.
La prochaine fois que votre entreprise utilise l’IA pour embaucher des employés, ne demandez pas si c’était rapide. Demandez si c’était juste.
Serein aide les équipes à naviguer les risques et possibilités de l’utilisation de l’IA au bureau. Contactez-nous pour comprendre comment nous pouvons vous soutenir dans vos pratiques.