본 논문은 딥러닝 모델에서 개인 정보 보호에 대한 우려가 커짐에 따라, 학습된 모델에서 개인 지식의 잠재적 악용에 대한 우려가 증가하고 있음을 지적합니다. 기존 연구들이 완전한 지식 삭제에 대한 실제 사용자의 요구를 고려하지 못하고, 임베딩 특징을 통해 개인 지식이 유출될 위험이 있음을 밝힙니다. 이러한 문제를 해결하기 위해, 지식 삭제(Knowledge Deletion, KD)라는 새로운 개념을 제시하고, 특징 공간에서 지식 유지를 평가하기 위한 지식 유지 점수(Knowledge Retention score, KR)라는 지표를 제안합니다. 훈련이 필요 없는 지식 삭제 방법인 Erasing Space Concept (ESC)와, 학습 가능한 마스크를 사용하여 망각과 지식 보존 간의 균형을 개선한 ESC with Training (ESC-T)을 제시합니다. 다양한 데이터셋과 모델에 대한 실험을 통해 제안된 방법들이 가장 빠르고 최첨단 성능을 달성함을 보여주며, 얼굴 영역 설정과 같은 다양한 망각 시나리오에 적용 가능함을 통해 일반화 가능성을 입증합니다.