Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Training-Free Safe Denoisers for Safe Use of Diffusion Models

Created by
  • Haebom

저자

Mingyu Kim, Dongjun Kim, Amman Yusuf, Stefano Ermon, Mijung Park

개요

강력한 확산 모델(DMs)의 안전성에 대한 우려가 커짐에 따라, 본 논문은 텍스트 기반 부정 프롬프트나 DM의 재훈련 없이, 샘플링 궤적을 직접 수정하여 부적절한 콘텐츠 생성을 방지하는 새로운 접근 방식을 제시합니다. 구체적으로, 안전하지 않은 이미지, 저작권이 있는 데이터 등 부정 집합을 활용하여 데이터 분포의 특정 영역을 피하도록 하는 "safe denoiser"를 제안합니다. 이 알고리즘은 텍스트 조건, 클래스 조건, 그리고 무조건적인 이미지 생성 시나리오에서 고품질의 샘플을 생성하면서 부정 영역을 성공적으로 회피하는 것을 보여줍니다.

시사점, 한계점

시사점:
DM 재훈련 없이 안전한 이미지 생성이 가능하도록 하는 새로운 접근 방식 제시.
텍스트 조건, 클래스 조건, 무조건적 이미지 생성에서 모두 효과적인 성능 입증.
DM을 보다 안전하게 사용할 수 있는 가능성 제시.
한계점:
논문에 명시된 한계점은 제시되지 않음.
👍