본 논문은 대규모 언어 모델(LLM)에서 개인정보보호 법규에 따라 중요해지고 있는 언러닝(unlearning)의 해석 가능성, 특히 샘플 수준의 언러닝 어려움에 초점을 맞춘 연구이다. 기존 연구들은 샘플 간 언러닝 어려움이 균일하다고 가정하는데, 이는 언러닝 알고리즘의 성능을 알고리즘 설계가 아닌 샘플 선택에 귀속시킬 위험이 있다. 따라서 본 논문은 신경과학에서 영감을 얻어 샘플 수준의 언러닝 어려움을 정량화하는 메모리 제거 난이도(Memory Removal Difficulty, MRD) 지표를 제안하고, 이를 이용하여 언러닝이 어려운 샘플과 쉬운 샘플의 특성을 분석한다. 또한, 쉽게 잊을 수 있는 샘플을 우선적으로 처리하여 언러닝 효율성과 효과를 향상시키는 MRD 기반 가중치 샘플링 방법을 제안하고, 공개 벤치마크 및 데이터셋을 사용하여 그 효과를 검증한다.