본 논문은 고품질 이미지 생성 능력에도 불구하고 반복적인 다단계 추론으로 인해 높은 계산 비용이 드는 확산 모델(Diffusion Models, DMs)의 문제점을 해결하기 위해, 사전 훈련된 매개변수를 수정하지 않고 생성 일정과 모델 아키텍처를 공동으로 최적화하는 훈련 없는 NAS 프레임워크인 Flexiffusion을 제안합니다. Flexiffusion은 생성 과정을 동일한 길이의 유연한 세그먼트로 분해하고, 각 세그먼트에서 전체 계산, 부분 계산(캐시 재사용), 계산 건너뛰기의 세 가지 단계 유형을 동적으로 결합하여 단계별 NAS에 비해 후보군을 기하급수적으로 줄이면서 아키텍처 다양성을 유지합니다. 또한, 기준 데이터 대신 교사 모델의 출력과의 차이를 측정하는 경량 평가 지표인 rFID를 도입하여 평가 시간을 90% 이상 단축합니다. 실험 결과, Flexiffusion은 ImageNet과 MS-COCO에서 LDMs, Stable Diffusion, DDPMs에 대해 최소 2배의 가속화를 달성하면서 FID 저하를 5% 미만으로 유지했으며, 기존 NAS 및 캐싱 방법보다 우수한 성능을 보였습니다. 특히 Stable Diffusion에서는 CLIP 점수가 거의 동일하면서 5.1배의 속도 향상을 달성했습니다.