본 논문은 대규모 언어 모델(LLM)의 성공에도 불구하고 저작권 침해 및 개인정보 유출 위험이 존재함을 지적하며, 특정 훈련 샘플이 모델에 남긴 정보를 제거하는 머신 언러닝(machine unlearning)에 대한 연구를 제시합니다. 기존 연구들이 모델 출력에 대한 영향 완화에 집중한 것과 달리, 본 논문은 모델 잠재 공간의 기하학적 분포를 고려하여 새로운 머신 언러닝 프레임워크인 Deep Contrastive Unlearning for fine-Tuning (DeepCUT)을 제안합니다. DeepCUT은 모델의 잠재 공간을 직접 최적화하여 훈련 샘플 제거를 수행하며, 실제 데이터셋을 이용한 실험 결과 기존 방법보다 효과적이고 효율적임을 보여줍니다.