दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

ACING: ब्लैक-बॉक्स LLM में निर्देश सीखने के लिए अभिनेता-आलोचक

Created by
  • Haebom

लेखक

सलमा खरात, फारेस फोराती, मार्को कैनिनी

रूपरेखा

यह शोधपत्र ACING प्रस्तुत करता है, जो बड़े पैमाने के भाषा मॉडल (LLM) के प्रदर्शन को बेहतर बनाने के लिए एक स्वचालित प्रॉम्प्ट अनुकूलन तकनीक है। ACING, एक सुदृढीकरण अधिगम-आधारित ढाँचा है जो ब्लैक-बॉक्स वातावरण में भी काम करता है जहाँ LLM के पैरामीटर और ग्रेडिएंट अप्राप्य होते हैं। यह प्रॉम्प्ट अनुकूलन को एक स्टेटलेस सतत-क्रिया समस्या के रूप में सूत्रबद्ध करता है, जो एक अनंत प्रॉम्प्ट स्पेस की खोज करता है। प्रायोगिक परिणाम दर्शाते हैं कि ACING ऐसे प्रॉम्प्ट उत्पन्न करता है जो विभिन्न कार्यों (निर्देश-प्रेरण, सारांशीकरण और विचार-श्रृंखला अनुमान) में 76% बार मानव-जनित प्रॉम्प्ट से बेहतर प्रदर्शन करते हैं, जिससे सर्वोत्तम स्वचालित बेसलाइन मॉडल की तुलना में 33 अंक तक और 10 अंकों का औसत प्रदर्शन सुधार प्राप्त होता है। व्यापक अतिरिक्त प्रयोग ACING की मजबूती और दक्षता की पुष्टि करते हैं। स्रोत कोड GitHub पर उपलब्ध है।

Takeaways, Limitations

Takeaways:
ब्लैक-बॉक्स एलएलएम के लिए एक प्रभावी त्वरित अनुकूलन तकनीक प्रस्तुत की गई है।
मानव-जनित संकेतों से बेहतर स्वचालित संकेत उत्पन्न करने की व्यवहार्यता का प्रदर्शन करना।
विभिन्न एलएलएम कार्यों के लिए लागू एक सामान्य रूपरेखा प्रस्तुत करना।
ACING के स्रोत कोड के प्रकटीकरण के माध्यम से पुनरुत्पादन और प्रयोज्यता में वृद्धि हुई।
Limitations:
विशिष्ट एलएलएम और कार्यों के लिए सामान्यीकरण प्रदर्शन को सत्यापित करने की आवश्यकता है।
ACING की कम्प्यूटेशनल लागत और प्रशिक्षण समय का आगे विश्लेषण आवश्यक है।
विभिन्न प्रकार के ब्लैक-बॉक्स एलएलएम की प्रयोज्यता और प्रदर्शन अंतर पर आगे अनुसंधान की आवश्यकता है।
👍