본 논문은 확산 기반 생성 모델의 성능 향상을 위해 새로운 정규화 기법인 'Dispersive Loss'를 제안합니다. 기존 확산 모델들은 회귀 기반 목적 함수에 의존하며 명시적인 정규화가 부족한데, Dispersive Loss는 은닉 공간에서 내부 표현의 분산을 유도하여 이를 개선합니다. 대조 학습과 유사하지만, 양성 샘플 쌍이 필요 없어 샘플링 과정에 간섭하지 않는다는 특징이 있습니다. ImageNet 데이터셋에서 다양한 모델에 적용하여 기존 최고 성능 모델보다 일관된 성능 향상을 보였으며, 생성 모델링과 표현 학습 간의 격차를 줄이는 데 기여할 것으로 기대됩니다.