Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Explorando el efecto del contenido y el formato de la explicación en la comprensión y la confianza del usuario en la atención médica

Created by
  • Haebom

Autor

Antonio Rago, Bence Palfi, Purin Sukpanichnant, Hannibal Nabli, Kavyesh Vivek, Olga Kostopoulou, James Kinross, Francesca Toni

Describir

Este artículo explora la explicabilidad de las herramientas de IA en el ámbito médico, utilizando como ejemplo QCancer, una herramienta de predicción del riesgo de cáncer. Se realizaron experimentos con pacientes y estudiantes de medicina (profesionales de la salud) utilizando dos métodos de explicación: SHAP y Occlusion-1, en formato gráfico (SC, OC) y texto (OT). Los resultados mostraron que Occlusion-1 mostró mayor comprensión subjetiva y confiabilidad que SHAP, pero esto se debió a una preferencia por el formato de texto (OT). En otras palabras, el formato de la explicación tuvo un mayor impacto en la comprensión y la confianza del usuario que el contenido.

Takeaways, Limitations

Takeaways:
Para mejorar la explicabilidad de las herramientas de IA médica, enfatizamos que no solo es importante el contenido de las explicaciones sino también la forma.
En particular, sugiere que las descripciones breves pueden ser efectivas cuando se proporcionan en formato de texto.
Demuestra la importancia de elegir un formato de descripción que tenga en cuenta las características del grupo de usuarios (pacientes, trabajadores de la salud).
Limitations:
Debido a que los sujetos experimentales se limitaron al público general y a los estudiantes de medicina, es posible que no reflejen las diversas partes interesadas en los entornos médicos reales.
Confiar en medidas subjetivas de comprensión y confiabilidad puede resultar en una falta de evaluación objetiva.
Dado que estos resultados provienen de un estudio de una herramienta específica llamada QCancer, es posible que no puedan generalizarse a otras herramientas de IA médica.
Se necesita más investigación en una gama más amplia de formatos, más allá de simplemente comparar formatos de texto y gráficos.
👍