본 논문은 강력한 확산 모델(Diffusion Models, DMs)의 안전성 문제를 해결하기 위한 새로운 방법을 제시합니다. 기존의 방법들이 부정적인 텍스트 프롬프트에 크게 의존하거나 DM을 재훈련하는 것과 달리, 본 논문에서는 부정적인 데이터 집합(예: 안전하지 않은 이미지, 저작권이 있는 데이터, 제외해야 할 데이터)을 활용하여 샘플링 경로를 직접 수정함으로써 특정 데이터 분포 영역을 피하도록 합니다. 안전한 샘플과 안전하지 않은 샘플 간의 관계를 공식적으로 유도하여, 최종 샘플이 제거해야 할 영역에서 멀어지도록 보장하는 "안전한" 디노이저를 개발했습니다. 텍스트 조건부, 클래스 조건부 및 무조건부 이미지 생성 시나리오에서 고품질 샘플을 생성하면서 부정 영역을 피하는 실용적인 알고리즘을 개발하였으며, 이는 재훈련 없이 DM을 더 안전하게 사용할 수 있는 잠재력을 보여줍니다.