Cette étude a analysé l'impact des préjugés raciaux dans les modèles d'intelligence artificielle (IA) sur les décisions d'embauche humaines au moyen d'une expérience menée auprès de 528 participants. Pour 16 professions de statut élevé et faible, l'expérience consistait à évaluer les candidats aux côtés de modèles d'IA présentant des préjugés raciaux. Les résultats ont montré que lorsque l'IA favorisait une origine ethnique particulière, les individus avaient également tendance à privilégier les candidats de cette origine jusqu'à 90 % du temps. Même si les recommandations de l'IA étaient perçues comme de faible qualité ou sans importance, nous avons constaté que les individus pouvaient néanmoins être influencés par les préjugés de l'IA dans certaines situations. L'administration préalable du test d'association implicite (TAI) a augmenté de 13 % la probabilité de sélectionner des candidats ne correspondant pas à des stéréotypes atypiques liés à l'origine ethnique.