[공지사항]을 빙자한 안부와 근황 
Show more

दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

SLM को बेहतर बनाएँ या LLM को प्रेरित करें? लो-कोड वर्कफ़्लो उत्पन्न करने का मामला

Created by
  • Haebom

लेखक

ऑरलैंडो मार्केज़ अयाला, पैट्रिस बेचर्ड, एमिली चेन, मैगी बेयर्ड, जिंगफेई चेन

रूपरेखा

इस शोधपत्र में, हम इस बात के प्रमाण प्रस्तुत करते हैं कि संरचित आउटपुट की आवश्यकता वाले कुछ डोमेन कार्यों के लिए SLM अभी भी गुणवत्ता में बेहतर हैं, भले ही GPT-4 जैसे बड़े पैमाने के भाषा मॉडल (LLM) के उद्भव ने वास्तविक दुनिया के अनुप्रयोगों के लिए छोटे पैमाने के भाषा मॉडल (SLM) को फ़ाइन-ट्यूनिंग के लाभों (तेज़ अनुमान, कम लागत) को कम स्पष्ट कर दिया है। कम-कोड JSON वर्कफ़्लो निर्माण कार्य पर SLM फ़ाइन-ट्यूनिंग की तुलना LLM प्रॉम्प्टिंग से करने पर, हम पाते हैं कि अच्छी प्रॉम्प्टिंग से उचित परिणाम मिल सकते हैं, लेकिन फ़ाइन-ट्यूनिंग से गुणवत्ता में औसतन केवल 10% का सुधार होता है। इसके अतिरिक्त, हम व्यवस्थित त्रुटि विश्लेषण के माध्यम से मॉडल की सीमाओं को उजागर करते हैं।

Takeaways, Limitations

Takeaways: हमने प्रयोगात्मक रूप से प्रदर्शित किया है कि SLM फ़ाइन-ट्यूनिंग, संरचित आउटपुट की आवश्यकता वाले विशिष्ट डोमेन कार्यों के लिए LLM प्रॉम्प्टिंग की तुलना में बेहतर गुणवत्ता वाले परिणाम प्रदान करती है। टोकन लागत में कमी के बावजूद, हम SLM फ़ाइन-ट्यूनिंग के व्यावहारिक मूल्य की पुष्टि करते हैं।
Limitations: यह अध्ययन एक विशिष्ट डोमेन (लो-कोड वर्कफ़्लो जनरेशन) और एक विशिष्ट कार्य (JSON फ़ॉर्मैट आउटपुट) तक सीमित है। अन्य डोमेन या कार्यों के लिए सामान्यीकरण हेतु और शोध की आवश्यकता है। व्यवस्थित त्रुटि विश्लेषण ने मॉडल की सीमाओं को उजागर किया, लेकिन इन सीमाओं को दूर करने के लिए कोई विशिष्ट उपाय नहीं सुझाए।
👍