यह शोधपत्र निम्न-श्रेणी अनुकूलन (LoRA) का प्रस्ताव करता है, जो बड़े पैमाने के भाषा मॉडल (LLM) को विशिष्ट कार्यों के अनुकूल बनाने के लिए एक पैरामीटर-कुशल फ़ाइन-ट्यूनिंग तकनीक है। यह zkLoRA फ्रेमवर्क का परिचय भी देता है, जो इसे सुरक्षा और सत्यापनीयता सुनिश्चित करने के लिए शून्य-ज्ञान प्रमाणों (ZKP) के साथ एकीकृत करता है। zkLoRA, ट्रांसफ़ॉर्मर-आधारित आर्किटेक्चर में अंकगणितीय और गैर-अंकगणितीय दोनों प्रकार के संक्रियाओं के सत्यापन के लिए लुकअप तर्क, योग सत्यापन प्रोटोकॉल और बहुपद प्रतिबद्धताओं जैसी क्रिप्टोग्राफ़िक तकनीकों का उपयोग करता है। यह LLaMA जैसे ओपन-सोर्स LLM में 13 बिलियन पैरामीटर तक स्केल करता है और मॉडल पैरामीटर और प्रशिक्षण डेटा की गोपनीयता को बनाए रखते हुए, प्रसार, प्रतिप्रसार और पैरामीटर अद्यतन प्रक्रियाओं के दौरान सत्यापनीयता प्रदान करता है। अंततः, zkLoRA सीमित परिवेशों में सुरक्षित और विश्वसनीय LLM परिनियोजन को सक्षम बनाता है।