Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

CURE : Désapprentissage contrôlé pour des intégrations robustes – Atténuation des raccourcis conceptuels dans les modèles de langage pré-entraînés

Created by
  • Haebom

Auteur

Aysenur Kocak, Shuo Yang, Bardh Prenkaj, Gjergji Kasneci

Contour

Cet article présente CURE, un nouveau framework léger permettant de traiter les corrélations erronées basées sur des concepts qui compromettent la robustesse et l'équité des modèles linguistiques pré-entraînés. CURE extrait les représentations non pertinentes pour les concepts grâce à un extracteur de contenu alimenté par un réseau d'inversion, minimisant ainsi la perte d'informations pertinentes pour la tâche. Un module de correction de biais contrôlable ajuste ensuite l'influence des indices conceptuels résiduels grâce à l'apprentissage contrastif, permettant au modèle de réduire les biais préjudiciables ou d'exploiter les corrélations bénéfiques adaptées à la tâche cible. Évalué sur les jeux de données IMDB et Yelp à l'aide de trois architectures pré-entraînées, CURE permet d'obtenir des gains de performance absolus de +10 points pour les scores F1 sur IMDB et +2 points sur Yelp, tout en minimisant la charge de calcul. Cette étude présente un modèle flexible, basé sur l'apprentissage non supervisé, pour traiter les biais conceptuels, ouvrant la voie à des systèmes de compréhension du langage plus fiables et plus justes.

Takeaways, Limitations

Takeaways:
Nous présentons CURE, un framework léger qui aborde efficacement le problème du biais conceptuel dans les modèles de langage pré-entraînés.
Améliorations significatives des performances obtenues sur les ensembles de données IMDB et Yelp.
Minimiser la surcharge de calcul.
Gagnez en flexibilité grâce à des méthodes d’apprentissage non supervisées.
Présenter la possibilité de construire un système de compréhension linguistique plus fiable et plus équitable.
Limitations:
Les performances de généralisation doivent être vérifiées sur des ensembles de données autres que l'ensemble de données présenté (IMDB, Yelp).
Une évaluation de l’applicabilité de divers types de biais conceptuels est nécessaire.
Des recherches supplémentaires sont nécessaires sur l’optimisation des hyperparamètres des réseaux d’inversion et l’apprentissage contrastif.
Des recherches supplémentaires sont nécessaires sur l’interprétabilité et la transparence de CURE.
👍