दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

परिष्कृत बड़े भाषा मॉडल में स्मरण

Created by
  • Haebom

लेखक

डैनिल सविन

रूपरेखा

यह अध्ययन स्वास्थ्य सेवा क्षेत्र में गोपनीयता संबंधी चिंताओं पर केंद्रित, परिष्कृत वृहत्-स्तरीय भाषा मॉडल (LLM) में स्मृति तंत्र और कारकों की जाँच करता है। फार्माकोविजिलेंस घटनाओं के PHEE डेटासेट का उपयोग करते हुए, हम जाँच करते हैं कि परिष्कृतीकरण प्रक्रिया के विभिन्न पहलू प्रशिक्षण डेटा को याद रखने की मॉडल की प्रवृत्ति को कैसे प्रभावित करते हैं। हम दो मुख्य विधियों का उपयोग करके याद किए गए डेटा का पता लगाते हैं: सदस्यता अनुमान हमले और प्रॉम्प्ट उपसर्गों का उपयोग करके एक जनरेशन कार्य। हम ट्रांसफ़ॉर्मर आर्किटेक्चर में विभिन्न वेट मैट्रिसेस के अनुप्रयोग, पेरप्लेक्सिटी और मेमोराइजेशन के बीच संबंध, और लो-रैंक अडेप्टेशन (LoRA) फाइन-ट्यूनिंग में रैंक बढ़ाने के प्रभाव का विश्लेषण करते हैं। प्रमुख निष्कर्षों में शामिल हैं: (1) मान और आउटपुट मैट्रिसेस, क्वेरी और कुंजी मैट्रिसेस की तुलना में मेमोराइजेशन में अधिक योगदान देते हैं; (2) परिष्कृत मॉडलों में कम पेरप्लेक्सिटी से मेमोराइजेशन बढ़ता है; और (3) उच्च LoRA रैंक से मेमोराइजेशन बढ़ता है, लेकिन घटते प्रतिफल के साथ। ये निष्कर्ष परिष्कृत LLM में मॉडल प्रदर्शन और गोपनीयता जोखिमों के बीच व्यापार-नापसंद की अंतर्दृष्टि प्रदान करते हैं। इस अध्ययन के निष्कर्ष डेटा गोपनीयता चिंताओं का प्रबंधन करते हुए बड़े पैमाने पर भाषा मॉडल को लागू करने के लिए अधिक प्रभावी और जिम्मेदार रणनीति विकसित करने के लिए मार्गदर्शन प्रदान करते हैं।

____T38842_____, ____T38843_____

Takeaways:
यह बताकर कि फाइन-ट्यून्ड एलएलएम में विशिष्ट भार मैट्रिक्स (मान, आउटपुट मैट्रिक्स) प्रशिक्षण डेटा को याद रखने में अधिक योगदान देते हैं, हम गोपनीयता के प्रति सजग फाइन-ट्यून्डिंग रणनीति स्थापित करने में योगदान करते हैं।
शर्मिंदगी और याद रखने के बीच संबंध की पहचान करके मॉडल प्रदर्शन और गोपनीयता को संतुलित करने में मदद करता है।
LoRA वर्ग में वृद्धि के अनुसार स्मरण पैटर्न में परिवर्तन प्रस्तुत करके एक कुशल LoRA पैरामीटर समायोजन रणनीति के विकास में योगदान देता है।
स्वास्थ्य सेवा क्षेत्र में गोपनीयता के मुद्दों पर ध्यान केंद्रित करना, व्यावहारिक अनुप्रयोगों के लिए महत्वपूर्ण Takeaways प्रदान करता है।
Limitations:
केवल एक PHEE डेटासेट का उपयोग करके सामान्यीकरण की सीमाएँ।
यह निर्धारित करने के लिए आगे अनुसंधान की आवश्यकता है कि क्या यह सामान्यीकरण विभिन्न एलएलएम आर्किटेक्चर या फाइन-ट्यूनिंग तकनीकों पर लागू होता है।
चूंकि हमने केवल दो विधियों, सदस्यता अनुमान हमलों और पीढ़ी कार्यों का उपयोग करके याददाश्त का मूल्यांकन किया है, इसलिए अन्य याददाश्त उपायों पर विचार किया जाना चाहिए।
विशिष्ट गोपनीयता रणनीतियों को प्रस्तुत करने के बजाय, स्मरण तंत्र की समझ बढ़ाने पर ध्यान केंद्रित किया गया है।
👍