본 논문은 불균형 데이터셋으로 학습 또는 미세 조정된 확산 모델의 성능 저하 문제를 해결하기 위해 PoGDiff라는 새로운 미세 조정 방법을 제안합니다. 기존 방법들이 예측 분포와 실제 분포 간의 KL 발산을 직접 최소화하는 것과 달리, PoGDiff는 이웃 텍스트 임베딩을 조건으로 한 예측 분포와 원래 실제 타겟을 결합하여 생성된 가우시안 곱(Product of Gaussians, PoG)을 실제 분포 대신 사용합니다. 실제 데이터셋을 이용한 실험 결과, PoGDiff는 확산 모델의 불균형 문제를 효과적으로 해결하여 생성 정확도와 품질을 모두 향상시키는 것을 보여줍니다.