Cet article explore l'explicabilité des outils d'IA dans le domaine médical, en prenant comme exemple QCancer, un outil de prédiction du risque de cancer. Des expériences ont été menées auprès de patients et d'étudiants en médecine (professionnels de santé) à l'aide de deux méthodes d'explication : SHAP et Occlusion-1, sous forme de dossiers (SC, OC) et de texte (OT). Les résultats ont montré qu'Occlusion-1 offrait une compréhension subjective et une fiabilité supérieures à SHAP, mais cela était dû à une préférence pour le format texte (OT). Autrement dit, le format de l'explication avait un impact plus important sur la compréhension et la confiance de l'utilisateur que le contenu.