En este artículo, proponemos un marco de Selección de Coreset con Preservación de Utilidad (UPCORE) para abordar la degradación del rendimiento que se produce durante el proceso de desaprendizaje, que implica la eliminación u olvido de ciertos puntos de datos de un modelo preentrenado, especialmente en modelos de lenguaje a gran escala (LLM). UPCORE minimiza la degradación del rendimiento del modelo tras el desaprendizaje eliminando valores atípicos del conjunto de olvido correlacionados con la varianza de las representaciones del modelo. Mediante tres métodos estándar de desaprendizaje, UPCORE equilibra eficazmente los objetivos contrapuestos de la efectividad de la eliminación de datos y la preservación del rendimiento del modelo, y lo demostramos mediante una novedosa métrica de evaluación basada en AUC. UPCORE mejora el rendimiento al promover la transferencia positiva entre el coreset y los puntos de datos eliminados, y al reducir la transferencia negativa de estos últimos a otros puntos de datos.