この論文は、AI、特に大規模言語モデル(LLM)が科学で新しい知識を生成するのか、単に記憶されたフラグメントを組み換えるのかについての中心的な認識論的質問を提起する。著者らは、この質問に答えるために「unlearning-as-ablation」という検証可能な方法を提案する。この方法は、特定の結果とその結果を支持するすべての関連情報をモデルから削除し、モデルが許可された公理とツールで結果を再導出できるかどうかを評価することです。結果の再導出に成功すれば記憶以上の生成能力を、失敗すれば現在の限界を示すのだ。論文は、数学とアルゴリズムの分野で最小限のパイロット研究を通じてこの方法の実現可能性を示し、物理学や化学などの他の分野への拡張可能性を示しています。本論文は、経験的結果よりも概念的かつ方法論的な貢献に焦点を当てた立場論文である。