변분 추론(VI)을 통해 최적화된 확산 모델은 정규화되지 않은 목표 확률 밀도에서 샘플을 생성하는 유망한 도구로 부상했습니다. 이러한 모델은 일반적으로 가우시안 분포인 간단하고 다루기 쉬운 사전 분포에서 시작하여 확률적 미분 방정식을 시뮬레이션하여 샘플을 생성합니다. 그러나 이 사전 분포의 지지 집합이 목표 분포의 지지 집합과 크게 다를 경우, 확산 모델은 효과적으로 탐색하는 데 어려움을 겪거나 큰 이산화 오류를 겪는 경우가 많습니다. 또한, 사전 분포를 학습하는 것은 VI에서 일반적으로 사용되는 역 쿨백-라이블러 발산의 모드 추구 특성에 의해 악화되는 모드 붕괴로 이어질 수 있습니다. 이러한 문제를 해결하기 위해, 우리는 종단간 학습 가능한 가우시안 혼합 사전(GMP)을 제안합니다. GMP는 탐색에 대한 향상된 제어, 목표 지지 집합에 대한 적응성, 그리고 모드 붕괴에 대응하기 위한 표현력 향상을 제공합니다. 또한, 우리는 훈련 중에 혼합 구성 요소를 반복적으로 추가하여 모델을 개선하는 전략을 제안함으로써 혼합 모델의 구조를 활용합니다. 우리의 실험 결과는 추가적인 목표 평가 없이 GMP를 사용할 때 다양한 실제 및 합성 벤치마크 문제에서 성능이 크게 향상됨을 보여줍니다.