머신 언러닝은 사전 훈련 과정에서 습득된 원치 않는 지식을 선택적으로 제거하는 기술로 부상했습니다. 최근의 언러닝 기술은 표준 벤치마크에서 성능 저하 없이 유해한 콘텐츠를 효과적으로 제거하지만, 의도치 않게 "지식 구멍"을 생성할 수 있습니다. 즉, 표준 벤치마크가 포착하지 못하는, 무해한 지식의 의도치 않은 손실이 발생할 수 있습니다. 본 연구에서는 언러닝된 모델에서 지식 구멍이 나타나는 부분을 조사하기 위해, 언러닝된 콘텐츠의 즉각적인 이웃과 광범위한 잠재적 실패 영역을 탐색하는 테스트 케이스 생성 프레임워크를 제안합니다. 실험 결과, 언러닝으로 인한 상당한 숨겨진 손실이 나타났으며, 사전 훈련된 모델로 답할 수 있는 질문에 대해 언러닝된 모델은 최대 98.7%까지 관련 없는 답변을 하거나 무의미한 응답을 했습니다. 이러한 결과는 언러닝에서 지식 보존을 평가하는 기존 접근 방식을 재고하고, 표준 정적 벤치마크를 넘어설 필요가 있음을 시사합니다.