Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

MetaExplainer : un cadre pour générer des explications multi-types centrées sur l'utilisateur pour les systèmes d'IA

Created by
  • Haebom

Auteur

Shruthi Chari, Oshani Seneviratne, Prithwish Chakraborty, Pablo Meyer, Deborah L. McGuinness

Contour

MetaExplainer est un framework symbolique neuronal qui génère des explications centrées sur l'utilisateur. Il génère des explications en langage naturel adaptées aux questions des utilisateurs grâce à un processus en trois étapes : décomposition des questions par LLM, génération de recommandations système par des méthodes d'explication de modèle, et synthèse des résultats des explications. Il s'appuie sur une ontologie d'explication pour guider le LLM et les méthodes d'explication, et prend en charge différents types d'explication (contrastive, contrefactuelle, fondée sur des preuves, basée sur des cas et basée sur des données). Les résultats d'évaluation utilisant l'ensemble de données PIMA sur le diabète indien ont montré un score F1 de reconstruction des questions de 59,06 %, une fidélité d'explication du modèle de 70 % et une utilisation du contexte de synthèse en langage naturel de 67 %. Les études utilisateurs ont confirmé la créativité et l'exhaustivité des explications générées.

Takeaways, Limitations

Takeaways:
Contribue à améliorer la fiabilité des systèmes d'IA en présentant un cadre de symboles neuronaux pour générer des explications centrées sur l'utilisateur.
Tirez parti du LLM et des ontologies explicatives pour augmenter l’adaptabilité à différents types d’explications et questions.
Hautes performances vérifiées expérimentalement (reconstruction de questions, fidélité d'explication du modèle, utilisation du contexte de synthèse en langage naturel).
Suggère une applicabilité à divers domaines.
Limitations:
ÉTant donné qu'il a été évalué en utilisant uniquement l'ensemble de données sur le diabète indien PIMA, ses performances de généralisation sur d'autres ensembles de données ou applications nécessitent une étude plus approfondie.
Manque de description détaillée du processus de conception et de construction de l'ontologie explicative.
Manque d'analyse des changements de performance selon le choix du LLM et de la méthode d'explication.
👍