दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

रिफाइनकोडर: कोड निर्माण के लिए अनुकूली समालोचना परिशोधन के माध्यम से बड़े भाषा मॉडल का पुनरावृत्तीय सुधार

Created by
  • Haebom

लेखक

चांग्झी झोउ, ज़िन्यू झांग, डंडन सॉन्ग, जियानकाई चेन, वानली गु, हुइपेंग मा, युहांग तियान, मेंगडी झांग, लिनमेई हू

रूपरेखा

यह शोधपत्र अनुकूली आलोचना परिशोधन (ACR) का प्रस्ताव करता है, जो बड़े पैमाने के भाषा मॉडल (LLM) का उपयोग करके कोड निर्माण की एक नवीन विधि है। यह विधि मौजूदा पर्यवेक्षित मॉडल आसवन विधियों की सीमाओं को दूर करती है। यह स्व-निर्मित कोड में क्रमिक सुधार करके प्रदर्शन को बेहतर बनाती है। ACR, कोड की गुणवत्ता का आकलन करने के लिए LLM का उपयोग निर्णायक और आलोचक के रूप में करता है और निम्न-गुणवत्ता वाले कोड पर आलोचनात्मक प्रतिक्रिया के माध्यम से स्वयं मॉडल को बेहतर बनाता है। इस दृष्टिकोण से विकसित रिफाइनकोडर श्रृंखला, कम डेटा के साथ विभिन्न कोड निर्माण मानकों पर मौजूदा मॉडलों के बराबर या बेहतर प्रदर्शन प्राप्त करती है।

Takeaways, Limitations

Takeaways:
एलएलएम-आधारित कोड जनरेशन मॉडल (एसीआर) के प्रदर्शन में सुधार के लिए एक नया दृष्टिकोण
शिक्षक मॉडल आसवन पर निर्भरता कम करें और डेटा दक्षता बढ़ाएं।
स्व-निर्मित कोड के पुनरावृत्तीय सुधार के माध्यम से निरंतर प्रदर्शन सुधार की संभावना की पुष्टि करना।
एलएलएम को निर्णायक और आलोचक के रूप में उपयोग करते हुए प्रभावी मूल्यांकन और सुधार रणनीतियों को प्रस्तुत करना।
Limitations:
एसीआर की प्रभावशीलता एलएलएम के प्रदर्शन पर निर्भर हो सकती है।
ए.सी.आर. की प्रभावशीलता एल.एल.एम.-ए-जज और एल.एल.एम.-ए-क्रिटिक के प्रदर्शन के आधार पर भिन्न हो सकती है।
प्रस्तावित विधि की सामान्यता निर्धारित करने के लिए आगे अनुसंधान की आवश्यकता है।
चूंकि केवल विशिष्ट कोड जनरेशन बेंचमार्क के लिए ही परिणाम प्रस्तुत किए जाते हैं, इसलिए अन्य डोमेन या कार्यों के लिए सामान्यीकरण की आवश्यकता होती है।
👍