Cet article présente CURE, un nouveau framework léger permettant de traiter les corrélations erronées basées sur des concepts qui compromettent la robustesse et l'équité des modèles linguistiques pré-entraînés. CURE extrait les représentations non pertinentes pour les concepts grâce à un extracteur de contenu dédié et à un réseau d'inversion, minimisant ainsi la perte d'informations pertinentes pour la tâche. Un module de correction de biais contrôlable ajuste ensuite l'influence des indices conceptuels résiduels grâce à l'apprentissage contrastif, permettant au modèle de réduire les biais préjudiciables ou d'exploiter les corrélations bénéfiques adaptées à la tâche cible. Évalué sur les jeux de données IMDB et Yelp à l'aide de trois architectures pré-entraînées, CURE a amélioré le score F1 de 10 points sur IMDB et de 2 points sur Yelp, tout en minimisant la charge de calcul. Cette étude présente une conception flexible, basée sur l'apprentissage non supervisé, pour traiter les biais conceptuels, ouvrant la voie à des systèmes de compréhension du langage plus fiables et plus justes.