Cette étude examine un cadre d'auto-rationalisation constitué d'un jeu coopératif entre un générateur et un prédicteur. Le générateur extrait les parties les plus informatives de l'entrée brute, et le prédicteur utilise le sous-ensemble sélectionné comme entrée. Le générateur et le prédicteur sont entraînés de manière coopérative afin de maximiser la précision de la prédiction. Cet article révèle d'abord un problème potentiel : le jeu coopératif peut introduire involontairement un biais d'échantillonnage lors de l'extraction de la rationalisation. Plus précisément, le générateur peut générer involontairement de fausses corrélations entre les candidats à la rationalisation sélectionnés et les étiquettes, même s'ils ne sont pas sémantiquement liés dans l'ensemble de données d'origine. Nous expliquons ensuite l'origine de ce biais à l'aide d'une analyse théorique détaillée et de preuves empiriques. Nos résultats suggèrent des moyens d'examiner ces corrélations par des attaques et, sur la base de ces résultats, nous fournissons des conseils supplémentaires pour empêcher le prédicteur d'apprendre des corrélations. Des expériences sur six ensembles de données de classification de textes et deux ensembles de données de classification de graphes utilisant trois architectures de réseau (GRU, BERT et GCN) démontrent que la méthode proposée surpasse significativement les méthodes de rationalisation récentes et obtient des résultats comparables, voire supérieurs, à ceux du LLM représentatif (llama3.1-8b-instruct).