यह पत्र विशिष्ट शब्दों का पता लगाने और स्पष्टीकरणों को वैयक्तिकृत करने की एक विधि प्रस्तुत करता है ताकि विविध पृष्ठभूमि वाले पाठक विशिष्ट दस्तावेज़ों को समझ सकें। चूँकि मौजूदा उपयोगकर्ता-विशिष्ट फ़ाइन-ट्यूनिंग दृष्टिकोणों के लिए महत्वपूर्ण एनोटेशन प्रयास और कम्प्यूटेशनल संसाधनों की आवश्यकता होती है, यह पत्र कुशल और मापनीय वैयक्तिकरण रणनीतियों की खोज करता है। विशेष रूप से, हम दो रणनीतियों का पता लगाते हैं: ओपन-सोर्स मॉडल पर लो-रैंक अडेप्टेशन (LoRA) का उपयोग करके हल्का फ़ाइन-ट्यूनिंग और वैयक्तिकृत प्रॉम्प्टिंग, जो अनुमान के समय मॉडल के व्यवहार को समायोजित करता है। हम एक हाइब्रिड दृष्टिकोण का भी अध्ययन करते हैं जो सीमित एनोटेशन डेटा को अप्रशिक्षित शिक्षण से उपयोगकर्ता पृष्ठभूमि संकेतों के साथ जोड़ता है। प्रायोगिक परिणाम बताते हैं कि वैयक्तिकृत LoRA मॉडल F1 स्कोर में GPT-4 से 21.4% और सर्वश्रेष्ठ प्रदर्शन करने वाले ओरेकल बेसलाइन मॉडल से 8.3% बेहतर प्रदर्शन करता है