Cet article aborde les préoccupations relatives à la confiance, à la supervision, à la sécurité et à la dignité humaine découlant de l'opacité des modèles modernes d'apprentissage automatique. Si les méthodes d'explicabilité facilitent la compréhension des modèles, il reste difficile pour les développeurs de concevoir des explications à la fois compréhensibles et efficaces pour leur public cible. Une expérience à grande échelle menée auprès de 124 participants a examiné la manière dont les développeurs fournissent des explications aux utilisateurs finaux, les défis auxquels ils sont confrontés et la mesure dans laquelle des politiques spécifiques guident leur comportement. Les résultats ont révélé que la plupart des participants peinaient à produire des explications de qualité et à adhérer aux politiques fournies, la nature et la spécificité des orientations politiques ayant peu d'impact sur leur efficacité. Nous avançons que cela résulte d'une incapacité à imaginer et à anticiper les besoins des acteurs non techniques, et nous recommandons des interventions éducatives fondées sur la théorie des processus cognitifs et l'imagination sociale.