본 논문은 확산 모델에서의 머신 언러닝을 위한 새로운 방법인 SAFEMax를 제시합니다. 정보 이론적 원리를 기반으로 SAFEMax는 생성 이미지의 엔트로피를 극대화하여, 허용되지 않는 클래스를 조건으로 할 때 모델이 잡음을 생성하도록 하여 탈잡음 과정을 중단시킵니다. 또한, 클래스 특징 정보가 두드러지는 초기 확산 단계에 선택적으로 집중함으로써 망각과 유지의 균형을 제어합니다. 실험 결과는 SAFEMax의 효과와 최첨단 방법에 비해 상당한 효율성 향상을 보여줍니다.