Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Aprendizaje de pocos disparos explicable y guiado por expertos para el diagnóstico por imágenes médicas

Created by
  • Haebom

Autor

Ifrat Ikhtear Uddin, Longwei Wang, KC Santosh

Describir

El análisis de imágenes médicas se ve afectado por la escasez de datos anotados por expertos, lo que dificulta la generalización del modelo y su aplicabilidad clínica. Este estudio propone un marco de aprendizaje multipaso, explicable y dirigido por expertos que integra las regiones de interés (ROI) proporcionadas por radiólogos en el entrenamiento del modelo para mejorar simultáneamente el rendimiento de la clasificación y la interpretabilidad. Grad-CAM se utiliza para la supervisión de la atención espacial, introduciendo una pérdida de explicación basada en la similitud de Dice para dirigir la atención del modelo a las regiones relevantes para el diagnóstico durante el entrenamiento. Esta pérdida de explicación se optimiza con un objetivo de red prototípico estándar, lo que fomenta que el modelo se centre en las características clínicamente relevantes incluso con limitaciones de datos. El marco se evaluó en dos conjuntos de datos: BraTS (RM) y VinDr-CXR (línea torácica X). El marco logró una precisión mejorada del 77,09 % al 83,61 % para BraTS y del 54,33 % al 73,29 % para VinDr-CXR. Las visualizaciones Grad-CAM confirman que el entrenamiento dirigido por expertos se centra constantemente en las regiones diagnósticas, lo que mejora tanto la fiabilidad predictiva como la fiabilidad clínica. Estos resultados demuestran la eficacia de incorporar la supervisión dirigida por expertos para reducir la brecha entre el rendimiento y la interpretabilidad en diversos diagnósticos de imágenes médicas de entrenamiento.

Takeaways, Limitations

Takeaways:
Demostramos que unos pocos marcos de aprendizaje explicables y dirigidos por expertos pueden mejorar simultáneamente el rendimiento y la interpretabilidad del análisis de imágenes médicas.
Al aprovechar las pérdidas de explicación basadas en la similitud de Grad-CAM y Dice, podemos centrar eficazmente la atención del modelo en áreas relevantes para el diagnóstico.
Se puede lograr una alta precisión incluso en condiciones de datos limitadas.
Verificamos la eficacia del método propuesto a través de resultados experimentales en los conjuntos de datos BraTS y VinDr-CXR.
Limitations:
El rendimiento puede verse afectado por la calidad del ROI proporcionado por el experto.
Se necesita una evaluación adicional del rendimiento de generalización en varios tipos de imágenes médicas y enfermedades.
Se necesita una solución para abordar los problemas de costos y consumo de tiempo del trabajo de anotación de expertos.
👍