De plus en plus d’entreprises adoptent des outils d’intelligence artificielle pour automatiser le recrutement. Cependant des biais peuvent se glisser dans ces processus de recrutement et influencer la diversité des candidatures sélectionnées. Ces biais, souvent issus de données historiquement biaisées ou d’un manque de diversité dans les équipes de développement, peuvent renforcer des discriminations existantes. Identifier, mesurer et réduire ces biais est une nécessité pour promouvoir l’inclusion et la diversité au sein de l’entreprise.
L’utilisation des intelligences artificielles dans le recrutement
L’utilisation des intelligences artificielles (IA) dans le recrutement est désormais courante : 75 % des entreprises dans le monde y ont recours à un moment de processus de recrutement¹. Ces technologies permettent notamment de présélectionner automatiquement des candidatures en se basant sur des critères prédéfinis tels que les compétences, les diplômes ou l’expérience professionnelle.
Grâce à l’automatisation, les responsables de recrutement peuvent analyser des milliers de CV en quelques minutes seulement. Si ces outils font gagner un temps considérable, en particulier pour les grandes entreprises qui reçoivent un très grand nombre de candidatures, ils ne sont pourtant pas dénués de limites. Contrairement à ce que l’on pourrait penser, ces IA ne sont pas toujours objectives : elles peuvent reproduire, voire amplifier, certains biais existants. C’est ce que l’on appelle le biais algorithmique. Cette dérive peut avoir un impact direct sur l’accès à l’emploi pour certaines catégories de personnes.
Qu’est-ce qu’un biais algorithmique dans le recrutement ?
Un biais algorithmique dans le recrutement correspond à une erreur systématique produite par un algorithme lors du traitement des données, conduisant à des résultats discriminatoires. Ces biais ont pour effet de favoriser certains groupes de candidats et candidates au détriment d’autres groupes, de manière injustifiée. Ils trouvent souvent leur origine dans des données d’entraînement non représentatives des populations cibles.
En effet, les algorithmes s’appuient sur l’analyse de données antérieures pour “apprendre” à identifier les bons profils. Or, si ces données sont biaisées, par exemple, si elles proviennent majoritairement de candidatures masculines, blanches ou issues de milieux sociaux similaires, l’algorithme risque de juger ces profils comme étant les plus performants ou les plus adaptés, simplement parce qu’ils sont surreprésentés dans l’historique.
C’est ce qui s’est produit chez Amazon, dont l’outil de recrutement favorisait les hommes. En effet, l’intelligence artificielle avait été entraînée sur les CV des personnes déjà employées dans l’entreprise, en majorité des hommes, et en avait conclu que ce genre de profil était à privilégier.
Les conséquences des biais algorithmiques sur la diversité en entreprise
Les biais algorithmiques peuvent avoir des conséquences importantes sur la diversité en entreprise. En introduisant des discriminations systémiques à l’encontre des femmes, des minorités ethniques ou culturelles, ou encore des personnes en situation de handicap, ces biais réduisent significativement les chances de certains profils d’être sélectionnés dans les processus de recrutement automatisés. Ce phénomène est d’autant plus préoccupant qu’il peut passer inaperçu pendant un temps.
En négligeant ainsi la diversité, les entreprises se privent non seulement de talents précieux, mais elles compromettent également leur capacité d’innovation et leur développement stratégique sur le long terme. Par ailleurs, ces pratiques exposent les entreprises à des risques juridiques, comme des poursuites pour discrimination, ce qui peut entraîner des coûts financiers mais aussi une perte de crédibilité. Elles peuvent aussi ternir leur réputation et nuire à leur image, tant auprès de potentiels talents que de leurs clients et de leurs partenaires.
Stratégies pour réduire les biais et favoriser la diversité
Pour limiter les biais algorithmiques et promouvoir la diversité dans les recrutements, plusieurs stratégies peuvent être mises en place. Tout d’abord, nous vous recommandons de réaliser des audits réguliers d’équité. Cela consiste à tester l’algorithme dans différents scénarios. Ces tests, menés sur des profils variés en termes d’origine, de genre, d’âge ou de parcours professionnels, permettent de vérifier qu’aucun groupe n’est systématiquement défavorisé. Si un biais est détecté, il convient d’ajuster les critères de sélection ou de réentraîner le modèle avec des données plus représentatives.
L’anonymisation des candidatures, en supprimant les informations telles que le nom, le sexe ou l’âge, constitue également une mesure efficace pour limiter les biais au stade de la préselection.
Par ailleurs, il est recommandé de conserver une intervention humaine dans le processus de recrutement. Les algorithmes ne doivent pas remplacer totalement le jugement des responsables de recrutement. Enfin, il est important de former ces responsables à une évaluation objective des candidatures et à la gestion des biais, notamment à travers des dispositifs comme la formation Recruter sans discriminer proposée par l’association A Compétence Égale. Ce type de formation permet de sensibiliser les professionnels des ressources humaines à ces enjeux et de renforcer les bonnes pratiques dans les entreprises.
Les biais algorithmiques dans le recrutement peuvent nuire à la diversité et à l’inclusion en entreprise. En adoptant certaines pratiques comme des audits réguliers, les entreprises peuvent concevoir des systèmes de sélection de candidatures plus justes et inclusifs. Cette vigilance est importante au niveau de l’inclusion, de la diversité, mais également pour la performance et l’innovation de l’entreprise.
Sources :
¹ Etude de Gartner, 2023
Télécharger L’impact des biais algorithmiques sur la diversité en entreprise


