Este artículo plantea una pregunta epistemológica central: si la IA, en particular los modelos lingüísticos a gran escala (LLM), genera nuevo conocimiento científico o simplemente reensambla fragmentos de memoria. Para responder a esta pregunta, los autores proponen un método comprobable denominado "desaprendizaje como ablación". Este método implica extraer del modelo un resultado específico y toda la información relevante que lo respalda, y luego evaluar si el modelo puede volver a derivar el resultado utilizando axiomas y herramientas aceptados. El éxito en la derivación del resultado demuestra capacidades generativas más allá de la memoria, mientras que el fracaso demuestra las limitaciones actuales. El artículo demuestra la viabilidad de este método mediante estudios piloto mínimos en matemáticas y algoritmos, y sugiere posibles extensiones a otros campos como la física y la química. Este artículo es un documento de posición, centrado en contribuciones conceptuales y metodológicas más que en resultados empíricos.