Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Rationalisation coopérative contradictoire : le risque de corrélations erronées, même dans des ensembles de données propres

Created by
  • Haebom

Auteur

Wei Liu, Zhongyu Niu, Lang Gao, Zhiying Deng, Jun Wang, Haozhao Wang, Ruixuan Li

Contour

Cette étude examine un cadre d'auto-rationalisation constitué d'un jeu coopératif entre un générateur et un prédicteur. Le générateur extrait les parties les plus informatives de l'entrée brute, et le prédicteur utilise le sous-ensemble sélectionné comme entrée. Le générateur et le prédicteur sont entraînés de manière coopérative afin de maximiser la précision de la prédiction. Cet article révèle d'abord un problème potentiel : le jeu coopératif peut introduire involontairement un biais d'échantillonnage lors de l'extraction de la rationalisation. Plus précisément, le générateur peut générer involontairement de fausses corrélations entre les candidats à la rationalisation sélectionnés et les étiquettes, même s'ils ne sont pas sémantiquement liés dans l'ensemble de données d'origine. Nous expliquons ensuite l'origine de ce biais à l'aide d'une analyse théorique détaillée et de preuves empiriques. Nos résultats suggèrent des moyens d'examiner ces corrélations par des attaques et, sur la base de ces résultats, nous fournissons des conseils supplémentaires pour empêcher le prédicteur d'apprendre des corrélations. Des expériences sur six ensembles de données de classification de textes et deux ensembles de données de classification de graphes utilisant trois architectures de réseau (GRU, BERT et GCN) démontrent que la méthode proposée surpasse significativement les méthodes de rationalisation récentes et obtient des résultats comparables, voire supérieurs, à ceux du LLM représentatif (llama3.1-8b-instruct).

Takeaways, Limitations

Takeaways: Cet article contribue à améliorer la fiabilité et les performances des modèles d'auto-rationalisation en identifiant les potentiels biais d'échantillonnage dans les cadres d'auto-rationalisation collaborative et en proposant des solutions efficaces pour y remédier. La méthode proposée démontre des performances supérieures à celles des méthodes existantes et des modèles de modèle de recherche représentatifs.
Limitations: Des recherches supplémentaires sont nécessaires pour déterminer les performances de généralisation de la méthode proposée. Des expériences plus approfondies sur divers ensembles de données et architectures sont nécessaires. Une analyse théorique plus approfondie est nécessaire pour résoudre les problèmes de biais d'échantillonnage.
👍