본 논문은 대규모 데이터셋으로 훈련된 강력한 자연어 처리(NLP) 모델이 민감한 정보를 유출할 위험이 있다는 점을 지적하며, 이에 대한 해결책으로 기존의 기계 학습 모델에서 특정 데이터 항목을 선택적으로 삭제하는 기계 언러닝(Machine Unlearning) 기술에 대한 연구를 제시합니다. 기존의 언러닝 기법들은 주로 전처리 방식에 의존하거나 원본 훈련 데이터에 대한 접근을 필요로 하여 한계를 지니고 있었는데, 본 논문에서는 이러한 한계를 극복하기 위해 반복적 대조 언러닝(ICU) 프레임워크를 제안합니다. ICU는 지식 언러닝 유도 모듈, 대조 학습 향상 모듈, 반복적 언러닝 개선 모듈의 세 가지 핵심 구성 요소로 이루어져 있으며, 특정 지식을 제거하기 위한 언러닝 손실 함수를 사용하고, 순수한 언러닝 목표에 대한 모델의 표현 능력을 보존하며, 지속적인 평가와 업데이트를 통해 언러닝 프로세스를 동적으로 조정합니다. 실험 결과는 ICU 방법이 민감한 정보를 언러닝하면서 모델의 전반적인 성능을 유지하는 효과를 보여주어, 개인정보 보호에 중점을 둔 기계 학습 애플리케이션에 대한 유망한 솔루션을 제공합니다.