इस पत्र में, हम निम्न-श्रेणी अनुकूलन (LoRA) के लिए पैरामीटर-कुशल फ़ाइन-ट्यूनिंग में मौजूदा ऑप्टिमाइज़र में अनुवाद अपरिवर्तनशीलता की कमी को दूर करने के लिए LoRA-RITE का प्रस्ताव करते हैं। LoRA-RITE एक अनुकूली मैट्रिक्स प्रीप्रोसेसिंग विधि है जो कम्प्यूटेशनल दक्षता बनाए रखते हुए अनुवाद अपरिवर्तनशीलता प्राप्त करती है। विभिन्न मॉडलों और जेम्मा 2B, 7B, और mT5-XXL जैसे LLM कार्यों पर सैद्धांतिक विश्लेषण और प्रयोगों के माध्यम से, हम प्रदर्शित करते हैं कि मौजूदा ऑप्टिमाइज़र की तुलना में इसका प्रदर्शन बेहतर होता है। उदाहरण के लिए, जेम्मा-2B पर LoRA फ़ाइन-ट्यूनिंग में एडम को LoRA-RITE से बदलने पर, हम सुपर-नेचुरल इंस्ट्रक्शन्स में 4.6% और अन्य चार LLM बेंचमार्क (HellaSwag, ArcChallenge, GSM8K, और OpenBookQA) में 3.5% की सटीकता में सुधार प्राप्त करते हैं।