Cet article soulève une question épistémologique fondamentale : l’IA, et plus particulièrement les modèles de langage à grande échelle (MLH), génère-t-elle de nouvelles connaissances scientifiques ou se contente-t-elle de réassembler des fragments de mémoire ? Pour répondre à cette question, les auteurs proposent une méthode testable appelée « désapprentissage par ablation ». Cette méthode consiste à supprimer du modèle un résultat spécifique et toutes les informations pertinentes qui le soutiennent, puis à évaluer si le modèle peut re-déduire le résultat à l’aide d’axiomes et d’outils reconnus. La réussite de la re-déduction du résultat démontre des capacités génératrices au-delà de la mémoire, tandis que l’échec met en évidence les limites actuelles. L’article démontre la faisabilité de cette méthode par des études pilotes minimales en mathématiques et en algorithmique, et suggère des extensions potentielles à d’autres domaines tels que la physique et la chimie. Cet article est un exposé de position, axé sur les contributions conceptuelles et méthodologiques plutôt que sur les résultats empiriques.