Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Sur la génération d'explications monolithiques et conciliatrices de modèles dans des scénarios probabilistes

Created by
  • Haebom

Auteur

Stylianos Loukas Vasileiou, William Yeoh, Alessandro Previti, Tran Cao Son

Contour

Cet article propose un nouveau cadre pour expliquer les décisions des systèmes d'IA dans des environnements incertains caractérisés par des informations incomplètes et des modèles probabilistes. Nous nous concentrons sur la génération de deux types d'explications : les explications monolithiques et les explications de réconciliation de modèles. Les explications monolithiques fournissent leurs propres justifications à l'explanandum, tandis que les explications de réconciliation de modèles prennent en compte la connaissance que l'utilisateur a du destinataire de l'explication. Les explications monolithiques intègrent l'incertitude en augmentant la probabilité de l'explanandum grâce à la logique probabiliste. Les explications de réconciliation de modèles étendent une variante logique du problème de réconciliation de modèles pour prendre en compte les modèles humains probabilistes, recherchant une explication qui minimise le conflit entre l'explication et le modèle humain probabiliste tout en augmentant la probabilité de l'explanandum. Pour évaluer la qualité des explications, nous présentons des mesures quantitatives du gain explicatif et du pouvoir explicatif. Nous présentons également un algorithme qui calcule efficacement les explications en exploitant la dualité entre les ensembles minimaux de correction et les ensembles minimaux insatisfaisables. Des évaluations expérimentales approfondies sur divers points de référence démontrent l’efficacité et l’évolutivité de notre approche pour générer des explications dans des conditions d’incertitude.

Takeaways, Limitations

Takeaways:
Nous présentons un nouveau cadre pour améliorer l’explicabilité des décisions des systèmes d’IA dans des environnements incertains.
ÉLargir l’applicabilité à diverses situations en fournissant deux types d’explications : une explication unique et une explication ajustée au modèle.
Développement d'algorithmes efficaces utilisant la logique probabiliste et des ensembles de modifications/insatisfaction minimaux.
Présentation d'indicateurs permettant d'évaluer quantitativement la qualité des explications.
Limitations:
Des recherches supplémentaires sont nécessaires pour déterminer l’applicabilité pratique du cadre proposé.
La généralisabilité à divers types d’incertitude et de situations complexes doit être vérifiée.
Il convient de prendre en compte la précision et la fiabilité des modèles humains probabilistes.
Des recherches supplémentaires sont nécessaires sur l’interprétabilité et la convivialité de la description.
👍