본 논문은 기계 학습 모델에서 특정 데이터를 "잊게" 만드는 기계 언러닝 방법의 한계를 실험적으로 보여줍니다. 기존의 기계 언러닝 방법들이 데이터를 재학습하여 만든 모델(mirror model)과 기계 언러닝 방법으로 생성된 모델을 구분하는 적대적 알고리즘을 제시합니다. 이를 위해 기존 연구의 평가 지표(membership inference scores)와 Kullback-Leibler divergence를 사용합니다. 또한, "계산적 언러닝(computational unlearning)"이라는 강력한 형식적 정의를 제안하여, 적대자가 mirror model과 언러닝된 모델을 구분할 수 없는 경우를 계산적 언러닝으로 정의합니다. 이 정의를 통해 엔트로피 학습 알고리즘에는 결정론적 계산적 언러닝 방법이 존재하지 않음을 증명하고, differential privacy(DP) 기반 언러닝 방법과 계산적 언러닝 간의 관계를 탐구하여 DP 기반 접근 방식이 극심한 유틸리티 저하를 감수해야 계산적 언러닝을 만족시킬 수 있음을 보입니다. 결론적으로 기존의 기계 언러닝 방법론은 계산적 언러닝에 근본적으로 미흡하며, 향후 연구 과제를 제시합니다.