본 논문은 생성적 사전 훈련을 통한 기초 모델의 최근 발전에도 불구하고, 이 분야의 알고리즘 혁신이 이산 신호에 대한 자기회귀 모델과 연속 신호에 대한 확산 모델에 크게 정체되어 있다는 점을 지적합니다. 이러한 정체는 풍부한 다중 모드 데이터의 잠재력을 완전히 활용하는 것을 방해하고, 다중 모드 지능의 발전을 제한합니다. 논문에서는 추론 시간의 스케일링 효율성을 우선시하는 추론 우선 관점이 새로운 생성적 사전 훈련 알고리즘을 고안하는 데 도움이 될 수 있다고 주장합니다. 유도적 모멘트 매칭(IMM)을 구체적인 예로 사용하여, 확산 모델의 추론 과정의 한계를 목표 지향적인 수정을 통해 해결함으로써 안정적이고 단일 단계 알고리즘을 얻을 수 있으며, 이는 훨씬 더 큰 추론 효율성(10배 이상)으로 우수한 샘플 품질을 달성한다는 것을 보여줍니다.