Este artículo presenta CURE, un novedoso marco de trabajo ligero para abordar las correlaciones espurias basadas en conceptos que comprometen la robustez y la imparcialidad de los modelos lingüísticos preentrenados. CURE extrae representaciones irrelevantes para los conceptos mediante un extractor de contenido alimentado por una red de inversión, minimizando la pérdida de información relevante para la tarea. Un módulo de dessesgo controlable afina la influencia de las claves conceptuales residuales mediante aprendizaje contrastivo, lo que permite al modelo reducir los sesgos perjudiciales o aprovechar las correlaciones beneficiosas adecuadas para la tarea objetivo. Evaluado en los conjuntos de datos de IMDB y Yelp utilizando tres arquitecturas preentrenadas, CURE logra mejoras absolutas de rendimiento de +10 puntos en las puntuaciones F1 en IMDB y +2 puntos en Yelp, a la vez que minimiza la sobrecarga computacional. Este estudio presenta un modelo flexible, basado en aprendizaje no supervisado, para abordar el sesgo conceptual, allanando el camino para sistemas de comprensión del lenguaje más fiables y equitativos.