दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

टेबल निर्देश ट्यूनिंग पर पुनर्विचार

Created by
  • Haebom

लेखक

नाइहाओ डेंग, राडा मिहाल्सेया

रूपरेखा

यह शोधपत्र सारणीबद्ध समझ के लिए बड़े पैमाने पर भाषा मॉडल (LLM) के फाइन-ट्यूनिंग और डोमेन के बाहर सामान्यीकरण और सामान्यीकरण करने की उनकी क्षमता पर हाइपरपैरामीटर चयन के प्रभाव के व्यापक मूल्यांकन की कमी को इंगित करता है। हम मौजूदा सारणीबद्ध LLM का मूल्यांकन करते हैं और पाते हैं कि डोमेन के बाहर सामान्यीकरण और समझने की उनकी क्षमता बेसलाइन मॉडल की तुलना में काफी खराब है। हम दिखाते हैं कि सीखने की दर जैसे हाइपरपैरामीटर का सारणीबद्ध-विशिष्ट और सामान्य दोनों विशेषताओं पर महत्वपूर्ण प्रभाव पड़ता है, और पिछले अध्ययनों के विपरीत, हम दिखाते हैं कि छोटी सीखने की दर और कुछ प्रशिक्षण उदाहरण सामान्य विशेषताओं को बनाए रखते हुए सारणीबद्ध समझ में सुधार कर सकते हैं। इन परिणामों के आधार पर, हम TAMA नामक एक सारणीबद्ध LLM प्रस्तुत करते हैं, जिसे LLaMA 3.1 8B इंस्ट्रक्ट पर फाइन-ट्यून किया गया है, जो मजबूत आउटसाइड-डोमेन सामान्यीकरण और सामान्य विशेषताओं को बनाए रखते हुए सारणीबद्ध कार्यों पर GPT-3.5 और GPT-4 की तुलना में बेहतर या बराबर प्रदर्शन प्राप्त करता है। यह सावधानीपूर्वक हाइपरपैरामीटर चयन के माध्यम से डेटा एनोटेशन लागत को कम करने और मॉडल विकास दक्षता में सुधार करने की क्षमता को प्रदर्शित करता है। हम इस शोधपत्र में अपने प्रोजेक्ट और मॉडल को ओपन सोर्स करते हैं।

Takeaways, Limitations

Takeaways:
हम तालिका समझने के लिए LLM के निर्देशों को ठीक करने में हाइपरपैरामीटर्स (विशेष रूप से सीखने की दरों) के महत्व पर जोर देते हैं।
हम एक कुशल फाइन-ट्यूनिंग विधि प्रस्तुत करते हैं जो तालिका समझने की क्षमता में सुधार करती है और कम डेटा और छोटी सीखने की दर का उपयोग करके सामान्य विशेषताओं को बनाए रखती है।
हम TAMA नामक एक नया उच्च-प्रदर्शन सारणीबद्ध LLM प्रस्तुत करते हैं और इसे ओपन सोर्स करते हैं।
यह डेटा एनोटेशन लागत को कम करने और मॉडल विकास दक्षता में सुधार करने की क्षमता का सुझाव देता है।
Limitations:
इस अध्ययन में मूल्यांकन किये गये एलएलएम के प्रकार सीमित हो सकते हैं।
विशिष्ट प्रकार के सारणीबद्ध डेटा के लिए सामान्यीकरण प्रदर्शन हेतु आगे अध्ययन की आवश्यकता है।
यह निर्धारित करने के लिए आगे सत्यापन की आवश्यकता है कि क्या TAMA का प्रदर्शन सभी प्रकार के सारणीबद्ध कार्यों में श्रेष्ठ है।
👍