Random Conditioning with Distillation for Data-Efficient Diffusion Model Compression
Created by
Haebom
저자
Dohyun Kim, Sehwan Park, Geonhee Han, Seung Wook Kim, Paul Hongsuck Seo
개요
본 논문은 확산 모델의 계산 비용을 줄이기 위해 지식 증류를 활용하는 새로운 방법인 Random Conditioning을 제안합니다. 기존의 지식 증류는 학습 데이터에 포함된 개념만을 전달하는 한계가 있었지만, Random Conditioning은 잡음이 추가된 이미지와 무작위로 선택된 텍스트 조건을 짝지어 학습하지 않은 개념까지 생성할 수 있도록 합니다. 이를 통해 조건부 확산 모델의 지식 증류 과정에서 학생 모델이 조건 공간을 효율적으로 탐색하고, 생성 품질과 효율성을 향상시킵니다. 결과적으로, 자원 효율적인 생성 확산 모델 배포를 가능하게 하여 연구 및 실제 응용 분야에서의 접근성을 높입니다. 코드, 모델 및 데이터셋은 https://dohyun-as.github.io/Random-Conditioning 에서 이용 가능합니다.