본 논문은 머신 언러닝 알고리즘의 검증 어려움에 대한 문제를 해결하기 위해, 사전 학습 및 미세 조정 패러다임에서의 머신 언러닝에 대한 최초의 이론적 보장을 제공합니다. 주제 모델(토픽 모델)이라는 간단한 단어 가방 언어 모델을 연구하여, 검색 및 분류와 같은 하위 작업에 적용할 수 있도록 합니다. 논문에서는 원래 데이터셋 크기와 무관한 계산 오버헤드를 갖는, 증명 가능하게 효과적인 주제 모델 언러닝 알고리즘을 설계합니다. 또한, 모델 성능 저하 없이 언러닝할 수 있는 데이터 수인 모델의 삭제 용량을 정량화하고, 하위 작업에 대한 적응을 고려하여 분석을 공식적으로 확장합니다. 특히, 선형 헤드를 통해 주제 모델을 미세 조정한 후 언러닝을 수행하는 효율적인 알고리즘을 설계하고, 특정 작업에 미세 조정된 모델에서 사전 학습 데이터를 더 쉽게 언러닝할 수 있으며, 기본 모델을 수정하지 않고도 이 데이터를 언러닝할 수 있음을 보여줍니다.