इस पत्र में, हम स्कोर-ऑफ-मिक्सचर ट्रेनिंग (SMT) का प्रस्ताव रखते हैं, जो एक नए विचलन, जिसे $\alpha$-तिरछा जेन्सन-शैनन विचलन कहा जाता है, को न्यूनतम करके एक-चरणीय जनरेटिव मॉडलों के प्रशिक्षण के लिए एक नवीन ढाँचा है। SMT का उद्देश्य विभिन्न रव स्तरों पर वास्तविक और नकली नमूनों के बीच मिश्रण वितरण के स्कोर का अनुमान लगाना है। संगति मॉडल के समान, हमारा दृष्टिकोण SMT, जिसे शुरू से प्रशिक्षित किया जाता है, और स्कोर-ऑफ-मिक्सचर डिस्टिलेशन (SMD), जो पूर्व-प्रशिक्षित विसरण मॉडल का उपयोग करके आसवन है, दोनों का समर्थन करता है। इसे लागू करना आसान है, इसके लिए न्यूनतम हाइपरपैरामीटर ट्यूनिंग की आवश्यकता होती है, और यह स्थिर प्रशिक्षण की गारंटी देता है। CIFAR-10 और ImageNet 64x64 पर प्रायोगिक परिणाम दर्शाते हैं कि SMT/SMD मौजूदा विधियों के साथ प्रतिस्पर्धी हैं और उनसे बेहतर प्रदर्शन भी करते हैं।