Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Di$\mathtt{[M]}$O: Distilling Masked Diffusion Models into One-step Generator

Created by
  • Haebom
Category
Empty

저자

Yuanzhi Zhu, Xi Wang, Stephane Lathuiliere, Vicky Kalogeiton

개요

본 논문은 마스크 확산 모델(MDM)의 느린 추론 속도 문제를 해결하기 위해, MDM을 단일 단계 생성기로 증류하는 새로운 방법인 Di$\mathtt{[M]}$O를 제안합니다. Di$\mathtt{[M]}$O는 중간 단계 정보를 단일 단계 생성에 사용하는 어려움을 보조 모델을 이용한 '온-폴리시 프레임워크'와 토큰 수준 분포 매칭을 통해 해결하고, 초기 분포의 엔트로피 부족 문제는 토큰 초기화 전략을 통해 해결합니다. 실험 결과, Di$\mathtt{[M]}$O는 클래스 조건부 및 텍스트 조건부 이미지 생성 모두에서 다단계 teacher 모델과 경쟁력 있는 성능을 달성하면서 추론 시간을 획기적으로 단축했습니다. 본 연구는 마스크 확산 모델의 단일 단계 증류와 텍스트-이미지 생성에 대한 이산 증류를 성공적으로 수행한 최초의 연구이며, 효율적인 생성 모델링을 위한 새로운 방향을 제시합니다.

시사점, 한계점

시사점:
마스크 확산 모델의 추론 속도를 획기적으로 향상시킬 수 있는 새로운 방법 제시.
단일 단계 증류를 통해 효율적인 생성 모델링을 가능하게 함.
텍스트-이미지 생성에 이산 증류를 성공적으로 적용한 최초의 연구.
클래스 조건부 및 텍스트 조건부 이미지 생성에서 다단계 모델과 경쟁력 있는 성능 달성.
한계점:
제시된 방법의 일반화 성능에 대한 추가적인 연구 필요.
보조 모델의 성능에 대한 의존성.
다른 종류의 생성 모델에 대한 적용 가능성 연구 필요.
👍