Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Clasificación más segura de lesiones cutáneas con evaluación de mapas de probabilidad de activación de clases globales y SafeML

Created by
  • Haebom

Autor

Kuniko Paxton, Koorosh Aslansefat, Amila Akagi c, Dhavalkumar Thakker, Yiannis Papadopoulos

Describir

Este artículo destaca que, a pesar de la mayor precisión en los modelos de clasificación de lesiones cutáneas, la desconfianza en los modelos de IA sigue siendo un problema en el ámbito médico. Además de una alta precisión, es fundamental contar con diagnósticos fiables y explicables. Para superar las limitaciones de los métodos de explicabilidad existentes (LIME, CAM), proponemos el método de Evaluación de Mapas Probabilísticos de Activación de Clases Globales (GCAPE). GCAPE analiza los mapas de probabilidad de activación de todas las clases de forma probabilística, píxel a píxel, para proporcionar una visualización integrada del proceso diagnóstico, reduciendo así el riesgo de diagnósticos erróneos. SafeML se aplica adicionalmente para detectar diagnósticos incorrectos y alertar a médicos y pacientes según sea necesario, mejorando así la fiabilidad del diagnóstico y la seguridad del paciente. El método se evaluó utilizando el conjunto de datos ISIC, MobileNetV2 y Vision Transformer.

Takeaways, Limitations

Takeaways:
Se presenta un nuevo método (GCAPE) para superar las limitaciones de los métodos de explicabilidad existentes.
Mejorar la fiabilidad de los modelos de IA y reducir el riesgo de diagnósticos erróneos
Mejorar la seguridad del paciente mediante la integración con SafeML
Mayor transparencia en el proceso de diagnóstico
Limitations:
Se necesitan más investigaciones para determinar el rendimiento de generalización del método propuesto.
Se necesitan experimentos adicionales en varios conjuntos de datos y modelos.
Se necesita una validación adicional de los criterios de alerta y la precisión de SafeML.
Es necesaria la validación de su eficacia en entornos clínicos reales.
👍