Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Explications causales pour les classificateurs d'images

Created by
  • Haebom

Auteur

Hana Chockler, David A. Kelly, Daniel Kroening, Youcheng Sun

Contour

Cet article met en évidence le problème suivant : les algorithmes existants pour générer des explications pour les résultats des classificateurs d'images utilisent diverses définitions et techniques d'explication, mais n'adoptent pas d'approche raisonnée fondée sur une définition formelle de la cause et de l'explication. Par conséquent, nous proposons une nouvelle approche boîte noire basée sur une théorie de la causalité réelle. Nous démontrons des résultats théoriques pertinents, présentons un algorithme permettant de calculer des explications approximatives basées sur ces définitions, et discutons de la terminaison de l'algorithme, de sa complexité et de la comparaison de l'approximation avec la définition exacte. Nous implémentons le cadre proposé dans un outil appelé ReX et présentons des résultats expérimentaux et des comparaisons avec des outils de pointe. Nous démontrons que ReX est le plus efficace et produit les explications les plus petites, tout en surpassant les autres outils boîte noire sur des mesures de qualité standard.

Takeaways, Limitations

Takeaways:
Présentation d’une méthode permettant de générer des explications fondées sur des principes, basées sur une théorie de la causalité réelle.
Générez des descriptions plus efficaces et plus petites que les méthodes existantes.
Surpasse les méthodes de boîte noire existantes dans les mesures de qualité standard
Développement et publication d'un outil pratique appelé ReX
Limitations:
ÉTant donné que l’algorithme génère une description approximative, il peut y avoir des différences par rapport à la description exacte.
Une analyse plus approfondie de la complexité et de l’efficacité de l’algorithme proposé est nécessaire.
Des expérimentations approfondies avec différents classificateurs d’images et ensembles de données peuvent être nécessaires.
👍