Este artículo aborda el problema del desaprendizaje automático en la recuperación de información neuronal (IR) y propone una nueva tarea denominada Desclasificación de Máquinas Neuronales (NuMuR). Este problema ha surgido debido a la creciente demanda de cumplimiento de la privacidad de datos y la eliminación selectiva de información en sistemas IR neuronales. Los métodos de desaprendizaje existentes, independientes de tareas o modelos, están diseñados principalmente para tareas de clasificación y, por lo tanto, no son óptimos para NuMuR. Esto se debe a dos desafíos clave. En primer lugar, los clasificadores neuronales generan puntuaciones de relevancia no normalizadas en lugar de distribuciones de probabilidad, lo que limita la eficacia de los marcos de destilación profesor-alumno existentes. En segundo lugar, los escenarios de datos entrelazados, donde las consultas y los documentos aparecen simultáneamente en los conjuntos de datos a olvidar y a mantener, pueden degradar el rendimiento de retención de los métodos existentes. Para abordar estos problemas, proponemos un marco de doble objetivo denominado Pérdida Contrastiva y Consistente (CoCoL). CoCoL consiste en (1) una pérdida contrastiva que mantiene el rendimiento de las muestras entrelazadas a la vez que reduce la puntuación de relevancia del conjunto de datos que se va a olvidar, y (2) una pérdida consistente que preserva la precisión del conjunto de datos de mantenimiento. Mediante experimentos exhaustivos con cuatro modelos neuronales IR en los conjuntos de datos MS MARCO y TREC CAR, demostramos que CoCoL logra un olvido significativo con una pérdida mínima de rendimiento de mantenimiento y generalización. Nuestro método permite una eliminación de datos más eficaz y controlable que las técnicas existentes.