본 연구는 대규모 언어 모델(LLM) 및 대규모 멀티모달 모델(LMM)의 개인 정보 보호 및 저작권 문제를 해결하기 위한 '잊어버리기' 기술, 즉 모델이 이전에 학습한 정보를 "잊도록" 유도하는 방법에 주목한다. LMM에서의 잊어버리기 평가를 위한 실질적인 프레임워크가 부족하다는 점을 지적하며, 현실적인 잊어버리기 시나리오를 위한 PULSE 프로토콜을 제안한다. PULSE 프로토콜은 (i) 사전 훈련된 지식 잊어버리기 (ii) 장기적 지속 가능성 평가의 두 가지 관점을 도입하여 기존 잊어버리기 방법들을 평가한다. 연구 결과에 따르면, 일부 기술은 미세 조정(fine-tuning)을 통해 얻은 지식을 성공적으로 잊게 할 수 있지만, 사전 훈련 단계에서 학습된 정보를 제거하는 데 어려움을 겪는다. 또한, 단일 작업에서 목표 데이터를 효과적으로 잊게 하는 방법들은 동일한 데이터가 분할되어 순차적으로 잊혀질 때 성능 저하를 보인다.