Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

MetaExplainer: Un marco para generar explicaciones multitipo centradas en el usuario para sistemas de IA

Created by
  • Haebom

Autor

Shruthi Chari, Oshani Seneviratne, Prithwish Chakraborty, Pablo Meyer, Deborah L. McGuinness

Describir

MetaExplainer es un marco simbólico neuronal que genera explicaciones centradas en el usuario. Genera explicaciones en lenguaje natural adaptadas a las preguntas del usuario mediante un proceso de tres pasos: descomposición de preguntas mediante LLM, generación de recomendaciones del sistema mediante métodos de explicación de modelos y resumen de los resultados de la explicación. Utiliza una ontología de explicación para guiar LLM y los métodos de explicación, y admite varios tipos de explicación (contrastiva, contrafactual, basada en evidencia, basada en casos y basada en datos). Los resultados de la evaluación con el conjunto de datos de diabetes india PIMA demostraron una puntuación F1 en la reconstrucción de preguntas del 59,06 %, una fidelidad de la explicación de modelos del 70 % y un uso del contexto de síntesis de lenguaje natural del 67 %. Los estudios de usuarios confirmaron la creatividad y la exhaustividad de las explicaciones generadas.

Takeaways, Limitations

Takeaways:
Contribuye a mejorar la confiabilidad de los sistemas de IA al presentar un marco de símbolos neuronales para generar explicaciones centradas en el usuario.
Aproveche LLM y las ontologías explicativas para aumentar la adaptabilidad a diferentes tipos de explicaciones y preguntas.
Alto rendimiento verificado experimentalmente (reconstrucción de preguntas, fidelidad de explicación del modelo, utilización del contexto de síntesis de lenguaje natural).
Sugiere aplicabilidad a varios campos.
Limitations:
Dado que se evaluó utilizando únicamente el conjunto de datos de diabetes india PIMA, su desempeño de generalización en otros conjuntos de datos o aplicaciones requiere más estudios.
Falta de descripción detallada del proceso de diseño y construcción de la ontología explicativa.
Falta de análisis de los cambios de desempeño según la elección del LLM y el método de explicación.
👍