Este artículo aborda el problema del desaprendizaje automático, que mantiene el rendimiento del modelo al tiempo que elimina datos específicos en sistemas de recuperación de información (RI) neuronal. La aplicación de los métodos existentes de desaprendizaje automático a la RI puede reducir la eficiencia de la recuperación o exponer inadvertidamente la tarea de desaprendizaje al eliminar elementos específicos de los resultados de búsqueda presentados al usuario. En este artículo, formalizamos la desclasificación correctiva, que extiende el desaprendizaje automático en el contexto de la RI (basada en redes neuronales) mediante la incorporación de documentos alternativos para mantener la integridad de la clasificación, y proponemos un nuevo marco docente-alumno, la Destilación Correctiva de Desclasificación (CuRD), para esta tarea. CuRD (1) facilita el olvido ajustando el modelo IR de red neuronal (entrenado) para que las puntuaciones de relevancia de salida de las muestras a olvidar imiten las puntuaciones de las muestras no buscables de menor rango; (2) permite la corrección ajustando las puntuaciones de relevancia de las muestras alternativas para que coincidan con las puntuaciones de las muestras a olvidar correspondientes; y (3) intenta preservar el rendimiento de las muestras no a olvidar. Evaluamos CuRD en cuatro modelos IR de red neuronal (BERTcat, BERTdot, ColBERT y PARADE) utilizando los conjuntos de datos MS MARCO y TREC CAR. Experimentos con tamaños de conjuntos de olvido del 1 % y el 20 % del conjunto de datos de entrenamiento muestran que CuRD supera a siete líneas base de vanguardia en términos de olvido y corrección, a la vez que mantiene la retención del modelo y la capacidad de generalización.