Sign In

End-To-End Learning of Gaussian Mixture Priors for Diffusion Sampler

Created by
  • Haebom
Category
Empty

저자

Denis Blessing, Xiaogang Jia, Gerhard Neumann

개요

변분 추론(VI)을 통해 최적화된 확산 모델은 정규화되지 않은 목표 확률 밀도에서 샘플을 생성하는 유망한 도구로 부상했습니다. 이러한 모델은 일반적으로 가우시안 분포인 간단하고 다루기 쉬운 사전 분포에서 시작하여 확률적 미분 방정식을 시뮬레이션하여 샘플을 생성합니다. 그러나 이 사전 분포의 지지 집합이 목표 분포의 지지 집합과 크게 다를 경우, 확산 모델은 효과적으로 탐색하는 데 어려움을 겪거나 큰 이산화 오류를 겪는 경우가 많습니다. 또한, 사전 분포를 학습하는 것은 VI에서 일반적으로 사용되는 역 쿨백-라이블러 발산의 모드 추구 특성에 의해 악화되는 모드 붕괴로 이어질 수 있습니다. 이러한 문제를 해결하기 위해, 우리는 종단간 학습 가능한 가우시안 혼합 사전(GMP)을 제안합니다. GMP는 탐색에 대한 향상된 제어, 목표 지지 집합에 대한 적응성, 그리고 모드 붕괴에 대응하기 위한 표현력 향상을 제공합니다. 또한, 우리는 훈련 중에 혼합 구성 요소를 반복적으로 추가하여 모델을 개선하는 전략을 제안함으로써 혼합 모델의 구조를 활용합니다. 우리의 실험 결과는 추가적인 목표 평가 없이 GMP를 사용할 때 다양한 실제 및 합성 벤치마크 문제에서 성능이 크게 향상됨을 보여줍니다.

시사점, 한계점

시사점:
가우시안 혼합 사전(GMP)을 사용하여 확산 모델의 탐색 능력과 표현력을 향상시켰습니다.
추가적인 목표 평가 없이 성능 향상을 달성했습니다.
다양한 실제 및 합성 벤치마크 문제에서 성능 향상을 입증했습니다.
훈련 중 혼합 구성 요소를 반복적으로 추가하는 전략을 통해 모델을 효과적으로 개선할 수 있음을 보여주었습니다.
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 연구가 필요합니다.
고차원 데이터에 대한 적용성 및 확장성에 대한 추가적인 검증이 필요합니다.
다른 사전 분포 또는 최적화 방법과의 비교 분석이 추가적으로 필요할 수 있습니다.
👍