Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

ÉTude de l'effet du contenu et du format des explications sur la compréhension et la confiance des utilisateurs dans les soins de santé

Created by
  • Haebom

Auteur

Antonio Rago, Bence Palfi, Purin Sukpanichnant, Hannibal Nabli, Kavyesh Vivek, Olga Kostopoulou, James Kinross, Francesca Toni

Contour

Cet article explore l'explicabilité des outils d'IA dans le domaine médical, en prenant comme exemple QCancer, un outil de prédiction du risque de cancer. Des expériences ont été menées auprès de patients et d'étudiants en médecine (professionnels de santé) à l'aide de deux méthodes d'explication : SHAP et Occlusion-1, sous forme de dossiers (SC, OC) et de texte (OT). Les résultats ont montré qu'Occlusion-1 offrait une compréhension subjective et une fiabilité supérieures à SHAP, mais cela était dû à une préférence pour le format texte (OT). Autrement dit, le format de l'explication avait un impact plus important sur la compréhension et la confiance de l'utilisateur que le contenu.

Takeaways, Limitations

Takeaways:
Pour améliorer l’explicabilité des outils d’IA médicale, nous soulignons que non seulement le contenu des explications mais aussi la forme sont importants.
En particulier, cela suggère que de brèves descriptions peuvent être efficaces lorsqu’elles sont fournies sous forme de texte.
Cela démontre l’importance de choisir un format de description qui prend en compte les caractéristiques du groupe d’utilisateurs (patients, professionnels de la santé).
Limitations:
ÉTant donné que les sujets expérimentaux étaient limités au grand public et aux étudiants en médecine, ils ne reflètent peut-être pas la diversité des parties prenantes dans les contextes médicaux réels.
S’appuyer sur des mesures subjectives de compréhension et de fiabilité peut entraîner un manque d’évaluation objective.
ÉTant donné que ces résultats proviennent d’une étude portant sur un outil spécifique appelé QCancer, ils peuvent ne pas être généralisables à d’autres outils d’IA médicale.
Des recherches supplémentaires sont nécessaires sur une gamme plus large de formats, au-delà de la simple comparaison des formats de texte et de graphique.
👍