Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Cuantificación del error de calibración en redes neuronales mediante teoría basada en evidencia

Created by
  • Haebom

Autor

Koffi Ismael Ouattara, Ioannis Krontiris, Theo Dimitrakos, Frank Kargl

Describir

Este artículo propone un nuevo marco para mejorar el error de calibración esperado (ECE) basado en lógica subjetiva para evaluar la fiabilidad de las redes neuronales. Las métricas existentes, como la exactitud y la precisión, presentan limitaciones para reflejar adecuadamente la confianza, la seguridad y la incertidumbre, y en particular, no abordan el problema del exceso de confianza. El método propuesto agrupa las probabilidades predichas y mide exhaustivamente la confianza, la desconfianza y la incertidumbre mediante operadores de fusión adecuados. Los resultados experimentales, utilizando los conjuntos de datos MNIST y CIFAR-10, demuestran una mayor fiabilidad tras la calibración. Este marco proporciona interpretabilidad y una evaluación precisa de los modelos de IA en áreas sensibles como la atención médica y los sistemas autónomos.

Takeaways, Limitations

Takeaways:
Un nuevo marco que considera de manera integral la confianza, la desconfianza y la incertidumbre al introducir la lógica subjetiva en la evaluación de la confiabilidad.
Contribuye a solucionar el problema del exceso de confianza, una limitación de los indicadores existentes
Sugiere el potencial para mejorar la confiabilidad y la interpretabilidad de los modelos de IA en campos sensibles como la atención médica y la conducción autónoma.
La eficacia del método propuesto se verifica mediante experimentos en los conjuntos de datos MNIST y CIFAR-10.
Limitations:
Se necesita más investigación sobre el rendimiento de generalización del marco propuesto.
La necesidad de ampliar los resultados experimentales en diversos conjuntos de datos y modelos.
Se necesitan más investigaciones sobre la configuración de parámetros de la lógica subjetiva y la selección de operadores de fusión.
Se necesitan más investigaciones y validaciones para aplicaciones prácticas.
👍