Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Distill, Forget, Repeat: A Framework for Continual Unlearning in Text-to-Image Diffusion Models

Created by
  • Haebom
Category
Empty

저자

Naveen George, Naoki Murata, Yuhta Takida, Konda Reddy Mopuri, Yuki Mitsufuji

개요

대규모 웹 규모 데이터로 훈련된 시각적 생성 모델의 급격한 성장은 데이터 프라이버시 규제 및 저작권법과의 마찰을 일으키며, 모델을 재훈련하지 않고 특정 개념을 제거하는 머신 언러닝(MU)의 필요성을 제기합니다. 기존 MU 기술은 지속적 언러닝(CUL) 환경에서 부적합하며, 순차적 삭제 요청에 직면할 경우 안정성 위기를 유발합니다. 본 논문에서는 삭제 요청 시퀀스 하에서 표적 및 안정적인 언러닝을 보장하는 새로운 생성적 증류 기반 CUL 프레임워크를 제안합니다. 이 프레임워크는 각 언러닝 단계를 다중 목표 교사-학생 증류 과정으로 재구성하여 지속적 학습 원리를 활용하여 모델 무결성을 유지합니다. 10단계 순차적 벤치마크 실험 결과, 제안된 방법은 기준선보다 훨씬 우수한 성능을 보이며, 유지 개념에 대한 성능 저하나 전반적인 이미지 품질 저하 없이 삭제 개념을 더 정확하게 언러닝합니다.

시사점, 한계점

시사점:
GDPR의 "잊혀질 권리"와 같은 데이터 규제를 준수하는 대규모 생성 모델의 책임 있는 배포 및 유지 관리 가능.
순차적 삭제 요청에 효과적으로 대응하여 산업에서 데이터 제거 요청을 실질적으로 처리할 수 있는 프레임워크 제공.
삭제 개념의 높은 충실도 언러닝, 유지 개념에 대한 성능 유지, 전반적인 이미지 품질 유지.
한계점:
논문에서 제시된 한계점에 대한 직접적인 언급은 없음. (논문 요약본에서는 언급되지 않음)
👍