यह शोधपत्र प्रशिक्षण-पश्चात अनुकूलन के माध्यम से क्वांटाइज्ड मॉडलों के आकार को बढ़ाकर उनके प्रदर्शन को बेहतर बनाने की एक विधि प्रस्तुत करता है। जहाँ मौजूदा क्वांटाइजेशन तकनीकें मॉडल के आकार को कम करने पर केंद्रित हैं, वहीं यह शोधपत्र क्वांटाइजेशन प्रक्रिया के कारण होने वाले प्रदर्शन ह्रास की भरपाई के लिए मॉडल का विस्तार करने की एक रणनीति प्रस्तावित करता है। विशेष रूप से, Llama3 1B मॉडल को 4 बिट्स तक क्वांटाइज करके और मॉडल के आकार को 5% बढ़ाकर, हम QuaRot और SpinQuant की तुलना में पेरप्लेक्सिटी रिडक्शन में औसतन 9% सुधार और BF16 बेसलाइन मॉडल की तुलना में आकार में 3.8% की कमी प्राप्त करते हैं। ये परिणाम प्रदर्शित करते हैं कि क्वांटाइजेशन सह-डिज़ाइन स्पेस में मॉडल के प्रदर्शन को बेहतर बनाने के लिए प्रशिक्षण-पश्चात मॉडल विस्तार एक व्यवहार्य रणनीति है।