Este artículo presenta una evaluación de la efectividad de los ataques de tokens blandos (STA) utilizados en el desaprendizaje automático de modelos lingüísticos a gran escala (LLM). Si bien investigaciones previas han demostrado que los STA pueden extraer con éxito información no aprendida, este estudio demuestra que, en un entorno de auditoría robusto, los STA pueden extraer cualquier información de los LLM, independientemente de si esta se incluyó en el algoritmo de desaprendizaje o en los datos de entrenamiento originales. Utilizando benchmarks como "¿Quién es Harry Potter?" y TOFU, demostramos esto, revelando que incluso un pequeño número de tokens blandos (1-10) puede filtrar una cadena arbitraria de más de 400 caracteres. Por lo tanto, enfatizamos la necesidad de un enfoque cauteloso para implementar eficazmente los STA en auditorías de desaprendizaje.