본 논문은 대규모 언어 모델(LLM)이 새로운 지식을 생성하는지, 아니면 단지 기억된 조각들을 재조합하는지에 대한 문제를 제기하며, 과학 분야에서의 인공지능(AI) 역할을 탐구합니다. 이를 위해, '학습 삭제-제거'라는 방법을 제안하여, LLM이 주어진 지식으로부터 새로운 결과를 재도출할 수 있는지 평가합니다. 이는 기억 능력을 넘어선 생성적 능력을 평가하는 방법론으로, 수학 및 알고리즘 분야를 예시로 들어 적용 가능성을 설명합니다. 본 논문은 개념적이고 방법론적인 기여를 목표로 하며, 지식 재구성과 단순 검색을 구별하는 원리적인 제거 테스트와 차세대 AI-for-Science 벤치마크 개발 방향을 제시합니다.