Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Denoising Score Distillation: From Noisy Diffusion Pretraining to One-Step High-Quality Generation

Created by
  • Haebom

저자

Tianyu Chen, Yasi Zhang, Zhendong Wang, Ying Nian Wu, Oscar Leong, Mingyuan Zhou

개요

저품질 데이터로부터 고품질 생성 모델을 학습시키는 새로운 방법인 잡음 제거 점수 증류(DSD)를 제안합니다. DSD는 먼저 잡음이 포함된 저품질 데이터로 확산 모델을 사전 학습한 후, 이를 고품질의 결과물을 생성하는 단일 단계 생성기로 증류합니다. 기존의 점수 증류가 확산 모델의 속도 향상에 초점을 맞춘 것과 달리, DSD는 특히 저품질의 teacher 모델을 사용할 때 샘플 품질을 크게 향상시키는 것을 보여줍니다. 다양한 잡음 수준과 데이터셋에서 DSD는 생성 성능을 지속적으로 향상시키며, 선형 모델 설정에서 DSD가 깨끗한 데이터 분포 공분산 행렬의 고유 공간을 식별하여 생성기를 암묵적으로 규제함을 이론적으로 보여줍니다. 따라서 점수 증류는 효율성 향상뿐 아니라 저품질 데이터 설정에서 생성 모델 개선을 위한 메커니즘으로도 기능함을 보여줍니다.

시사점, 한계점

시사점:
저품질 데이터로부터 고품질 이미지 생성 모델을 학습하는 효과적인 방법 제시
점수 증류 기법을 저품질 데이터 문제 해결에 활용하는 새로운 관점 제시
이론적 분석을 통해 DSD의 효과에 대한 통찰력 제공
다양한 잡음 수준과 데이터셋에서 DSD의 우수한 성능 실증
한계점:
제시된 이론적 분석은 선형 모델에 국한됨. 비선형 모델에 대한 추가적인 연구 필요.
실험 결과는 특정 데이터셋과 잡음 유형에 국한될 수 있음. 더욱 다양한 데이터셋과 잡음 유형에 대한 추가적인 실험 필요.
DSD의 성능 향상 정도는 teacher 모델의 품질에 의존적일 수 있음. teacher 모델의 품질 개선에 대한 연구 필요.
👍