Este artículo demuestra que ciertos métodos de desaprendizaje del aprendizaje automático son vulnerables a ataques de indicaciones simples. Evaluamos sistemáticamente ocho técnicas de desaprendizaje en tres familias de modelos, evaluando su capacidad para recuperar conocimiento presumiblemente desaprendido mediante análisis basados en resultados, logit y de sondeo. Si bien métodos como RMU y TAR muestran un desaprendizaje robusto, ELM es vulnerable a ciertos ataques de indicaciones (p. ej., agregar texto de relleno en hindi a la indicación original recupera una precisión del 57,3%). El análisis logit revela que los modelos desaprendidos tienen menos probabilidades de ocultar conocimiento mediante cambios en el formato de las respuestas, dada la fuerte correlación entre el resultado y la precisión logit. Estos resultados desafían los supuestos convencionales sobre la efectividad del desaprendizaje y resaltan la necesidad de un marco de evaluación confiable que pueda distinguir la eliminación genuina de conocimiento de la supresión superficial de la salida. Para facilitar futuras investigaciones, presentamos un marco de evaluación que facilita la evaluación de técnicas de indicaciones para recuperar conocimiento desaprendido.