대규모 웹 규모 데이터로 훈련된 시각적 생성 모델의 급격한 성장은 데이터 프라이버시 규제 및 저작권법과의 마찰을 일으키며, 모델을 재훈련하지 않고 특정 개념을 제거하는 머신 언러닝(MU)의 필요성을 제기합니다. 기존 MU 기술은 지속적 언러닝(CUL) 환경에서 부적합하며, 순차적 삭제 요청에 직면할 경우 안정성 위기를 유발합니다. 본 논문에서는 삭제 요청 시퀀스 하에서 표적 및 안정적인 언러닝을 보장하는 새로운 생성적 증류 기반 CUL 프레임워크를 제안합니다. 이 프레임워크는 각 언러닝 단계를 다중 목표 교사-학생 증류 과정으로 재구성하여 지속적 학습 원리를 활용하여 모델 무결성을 유지합니다. 10단계 순차적 벤치마크 실험 결과, 제안된 방법은 기준선보다 훨씬 우수한 성능을 보이며, 유지 개념에 대한 성능 저하나 전반적인 이미지 품질 저하 없이 삭제 개념을 더 정확하게 언러닝합니다.