बड़े पैमाने के भाषा मॉडल (एलएलएम) के लिए त्वरित संपीड़न पर पिछले शोध के विपरीत, जो मुख्य रूप से अर्थ संबंधी जानकारी का त्याग करने वाली विधियों पर केंद्रित है, यह पत्र LZ77 के समान एक कार्य-स्वतंत्र, दोषरहित संपीड़न तकनीक प्रस्तुत करता है। दो मूल्यांकन कार्यों पर, हम प्रदर्शित करते हैं कि प्रस्तावित तकनीक इनपुट टोकन अनुक्रम की लंबाई क्रमशः 27% और 18% कम करती है। इसके अलावा, ट्रांसफार्मर-आधारित एलएलएम का उपयोग ध्यान की द्विघात प्रकृति के कारण एन्कोडिंग गणना को क्रमशः 47% और 33% कम करता है। हम इस बात पर ज़ोर देते हैं कि टोकन अनुक्रम परिवर्तन आसानी से प्रतिवर्ती हैं, और अर्थ संबंधी जानकारी का कोई नुकसान नहीं होता है। हम प्रस्तावित विधि का मूल्यांकन दो कार्यों पर करते हैं जिनमें अर्थ/वाक्यगत जानकारी के सटीक संरक्षण की आवश्यकता होती है