본 논문은 대규모 다중 모달 언어 모델(MLLM)의 개인 정보 및 사진 메모리화 문제와 이를 해결하기 위한 기존의 언러닝(unlearning) 방법의 한계를 지적한다. 기존 언러닝 방법이 정보를 단순히 숨기는 것에 그칠 수 있다는 점을 문제 삼아, 언러닝된 지식을 복구하는 새로운 공격 방법인 은밀한 언러닝 공격(Stealthy Unlearning Attack, SUA) 프레임워크를 제안한다. SUA는 보편적인 노이즈 패턴을 학습하여 입력 이미지에 적용함으로써 언러닝된 콘텐츠를 드러내도록 설계되었으며, 특히 이미지 임베딩 공간에서의 차이를 최소화하여 공격을 은밀하게 만드는 임베딩 정렬 손실(embedding alignment loss)을 도입하였다. 실험 결과, SUA는 MLLM에서 언러닝된 정보를 효과적으로 복구하며, 학습된 노이즈는 일반화 성능이 우수하여 소수의 샘플에서 학습된 섭동이 보이지 않는 이미지에서도 잊혀진 콘텐츠를 드러낼 수 있음을 보였다. 이는 지식 재출현이 우연한 실패가 아닌 일관된 행동임을 시사한다.