GIFT는 악의적인 미세조정에 대해 확산 모델을 방어하기 위해 기울기 인식 면역 기법을 제시합니다. 기존의 안전 검사기와 같은 안전 메커니즘은 쉽게 우회될 수 있으며, 개념 삭제 방법은 적대적 미세 조정 하에서 실패합니다. GIFT는 면역화를 이중 수준 최적화 문제로 구성하여 이 문제를 해결합니다. 상위 수준 목표는 표현 노이즈 및 최대화를 사용하여 모델이 유해한 개념을 나타내는 능력을 저하시키는 반면, 하위 수준 목표는 안전한 데이터에 대한 성능을 유지합니다. GIFT는 안전한 생성 품질을 유지하면서 악의적인 미세 조정에 대한 강력한 저항성을 달성합니다. 실험 결과에 따르면, 제안된 방법은 안전한 콘텐츠에 대한 성능을 유지하면서 모델이 유해한 개념을 재학습하는 능력을 크게 손상시켜 적대적 미세 조정 공격에 강한 본질적으로 안전한 생성 모델을 만드는 유망한 방향을 제시합니다.