Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

HalCECE : un cadre pour la détection explicable des hallucinations grâce à des contrefactuels conceptuels dans les légendes d'images

Created by
  • Haebom

Auteur

Maria Limperaiou, Giorgos Filandrianos, Angeliki Dimitriou, Athanasios Voulodimos, Giorgos Stamou

Contour

Cet article porte sur une analyse approfondie des hallucinations survenant dans les modèles vision-langage (VL), en particulier dans les modèles de sous-titrage d'images. Nous proposons un cadre de détection des hallucinations appelé HalCECE, qui transforme les légendes d'hallucinations en légendes non hallucinatoires avec un minimum de modifications sémantiques basées sur des connaissances hiérarchiques, en s'appuyant sur des techniques d'explication conceptuelles et semi-empiriques existantes. HalCECE offre une grande interprétabilité en fournissant des modifications significatives plutôt que des chiffres, et permet une analyse approfondie des hallucinations grâce à la décomposition hiérarchique des concepts d'hallucinations. Il s'agit également de l'une des premières études à étudier les hallucinations de rôle en considérant les interconnexions entre les concepts visuels. En conclusion, HalCECE présente une approche explicative de la détection des hallucinations VL, facilitant une évaluation fiable des systèmes VL actuels et futurs.

Takeaways, Limitations

Takeaways:
Fournit une compréhension et une analyse approfondies du phénomène hallucinatoire du modèle VL.
Nous proposons un cadre de détection des hallucinations explicable et interprétable, HalCECE.
Présenter la possibilité de corriger les hallucinations par une modification sémantique minimale basée sur des connaissances hiérarchiques.
Surmonter les limites des études précédentes, y compris l’analyse des hallucinations de rôle.
Contribuer à l’établissement de critères d’évaluation fiables pour les systèmes VL actuels et futurs.
Limitations:
Des recherches supplémentaires sont nécessaires pour étudier les performances de généralisation du cadre proposé et son applicabilité à divers modèles VL.
Il existe une possibilité d’être biaisé envers certains types d’hallucinations.
Il peut y avoir un manque de résultats expérimentaux utilisant de grands ensembles de données (non mentionné dans l’article).
Une validation supplémentaire de l’applicabilité et de l’efficacité dans des environnements réels est nécessaire.
👍