Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Explicabilité des grands modèles linguistiques à l'aide de SMILE : interprétabilité statistique indépendante du modèle avec explications locales

Created by
  • Haebom

Auteur

Zeinab Dehghani, Mohammed Naveed Akram, Koorosh Aslansefat, Adil Khan

Contour

Dans cet article, nous proposons une nouvelle technique d'explicabilité, SMILE, pour résoudre le problème de la « boîte noire » de la compréhension du processus décisionnel des modèles linguistiques à grande échelle (MLE). Indépendant du modèle, SMILE mesure la variation de la sortie en modifiant légèrement l'entrée et explique le processus de réponse des MLE en mettant en évidence les mots les plus influents sur la sortie. Il génère une carte thermique visuelle simple indiquant les parties les plus importantes de l'invite et vérifie la fiabilité de SMILE grâce à des indicateurs tels que l'exactitude, la cohérence, la stabilité et la fidélité. Il devrait contribuer à améliorer la transparence et la fiabilité de l'IA.

Takeaways, Limitations

Takeaways:
Améliore la transparence de l'IA en augmentant l'explicabilité des processus décisionnels du LLM.
Il s’agit d’une méthodologie indépendante du modèle applicable à divers LLM.
Fournit des explications intuitives grâce à des cartes thermiques visuelles.
La fiabilité de SMILE est évaluée objectivement à travers des indicateurs quantitatifs.
Limitations:
Une validation supplémentaire de l’exactitude et de l’exhaustivité de la description de SMILE est nécessaire.
L’efficacité et la précision des explications pour les questions complexes ou les contextes longs devraient être davantage évaluées.
Des recherches supplémentaires sont nécessaires pour déterminer si SMILE offre le même niveau de performance explicative pour tous les types de LLM et tous les types d’invites.
👍