यह शोधपत्र प्रसार-आधारित वृहद-स्तरीय भाषा मॉडल (DLLM) के कुशल निर्माण हेतु एक परिमाणीकरण तकनीक प्रस्तुत करता है। DLLM पर लागू होने पर, मौजूदा प्रशिक्षण-पश्चात परिमाणीकरण (PTQ) तकनीकें, गतिशील मास्किंग, पुनरावृत्तीय निर्माण और द्विदिशात्मक ध्यान जैसे मूल DLLM तंत्रों के साथ टकराव के कारण सटीकता और सामान्यीकरण में गिरावट का सामना करती हैं। इसलिए, इस शोधपत्र में, हम DLLMQuant ढाँचे का प्रस्ताव करते हैं, जिसमें तीन नवीन तकनीकें शामिल हैं: TMAS, एक क्षतिपूर्ति तकनीक जो कालिक और मुखौटा कारकों पर विचार करती है; IA-AQ, जो द्विदिशात्मक ध्यान के अंतःक्रिया संकेत का लाभ उठाकर परिमाणीकरण संसाधनों का गतिशील आवंटन करती है; और CGQ, जो त्रुटि सुधार के लिए मुखौटा अवस्थाओं और टोकन स्कोर का उपयोग करती है। प्रायोगिक परिणाम दर्शाते हैं कि DLLMQuant बेहतर दक्षता के साथ-साथ महत्वपूर्ण प्रदर्शन सुधार भी प्राप्त करता है।