Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

ITL-LIME: Aprendizaje por transferencia basado en instancias para mejorar las explicaciones locales en entornos de datos con recursos limitados

Created by
  • Haebom

Autor

Rehan Raza, Guanjin Wang, Kok Wai Wong, Hamid Laga, Marco Fisichella

Describir

Para abordar los problemas de fiabilidad y estabilidad de los métodos de inteligencia artificial explicable (XAI) en entornos con escasez de datos, este artículo propone el Aprendizaje por Transferencia Basado en Instancias (ITL-LIME), que integra dicho aprendizaje en el marco LIME. Para abordar los problemas de localidad e inestabilidad causados ​​por la perturbación aleatoria y el muestreo en LIME convencional, aprovechamos instancias reales de dominios de origen relacionados para ayudar a explicar los dominios de destino. Agrupamos los dominios de origen, recuperamos instancias relevantes de los clústeres con prototipos más similares a las instancias de destino y las combinamos con instancias vecinas de la instancia de destino. Ponderamos las instancias mediante un codificador basado en aprendizaje contrastivo y entrenamos un modelo sustituto utilizando las instancias de origen y destino ponderadas para generar explicaciones.

Takeaways, Limitations

Takeaways:
Mejorar la confiabilidad y estabilidad de las explicaciones LIME en entornos con escasez de datos.
Un nuevo marco LIME que utiliza el aprendizaje por transferencia
Mejorar la precisión de la explicación mediante la ponderación basada en el aprendizaje contrastivo.
Generar explicaciones realistas utilizando métodos de perturbación que aprovechan datos reales.
Limitations:
Dependencia de la similitud entre los dominios de origen y destino
Sensibilidad del rendimiento a los métodos de agrupamiento y selección de prototipos
Dependencia del rendimiento de los codificadores basados ​​en aprendizaje contrastivo
Necesidad de verificar el rendimiento de generalización para varios tipos de datos y modelos
👍