[공지사항]을 빙자한 안부와 근황 
Show more

दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

ContextQFormer: मल्टी-टर्न मल्टी-मोडल वार्तालापों के लिए एक नई संदर्भ मॉडलिंग विधि

Created by
  • Haebom

लेखक

यिमिंग लेई, झिझेंग यांग, ज़ेमिंग लियू, हैताओ लेंग, शाओगुओ लियू, टिंगटिंग गाओ, किंग्जी लियू, युनहोंग वांग

रूपरेखा

यह शोधपत्र इस समस्या का समाधान करता है कि मौजूदा ओपन सोर्स मॉडलों में, विशेष रूप से लंबे संदर्भों में, कमज़ोर मल्टी-टर्न इंटरैक्शन क्षमताएँ हैं, जबकि उनकी ज़ीरो-शॉट क्षमताएँ और शक्तिशाली इमेज समझने की क्षमताएँ हैं। इन समस्याओं के समाधान के लिए, हम ContextQFormer नामक एक संदर्भ मॉडलिंग मॉड्यूल प्रस्तावित करते हैं जो प्रासंगिक जानकारी के निरूपण को बेहतर बनाता है, और मल्टी-टर्न मल्टी-मॉडल संवाद अनुसंधान के लिए एक नए डेटासेट, TMDialog, के निर्माण और रिलीज़ की घोषणा करते हैं। TMDialog मौजूदा डेटासेट की तुलना में लंबी बातचीत सहित, मल्टी-टर्न मल्टी-मॉडल संवाद अनुसंधान का समर्थन करता है। TMDialog का उपयोग करने वाले प्रयोगों में, ContextQFormer मौजूदा मॉडलों की तुलना में 2-4% बेहतर प्रदर्शन दिखाता है।

Takeaways, Limitations

Takeaways:
लंबे संदर्भों वाले मल्टी-टर्न मल्टी-मोडल वार्तालाप मॉडल के प्रदर्शन को बेहतर बनाने में योगदान देने के लिए एक नया संदर्भ मॉडलिंग मॉड्यूल (ContextQFormer) प्रस्तुत किया गया है।
हम बहु-समय बहु-मॉडल संवाद अनुसंधान के लिए एक नए बड़े पैमाने के डेटासेट (TMDialog) के रिलीज के माध्यम से भविष्य के अनुसंधान को प्रोत्साहित करने की उम्मीद करते हैं।
ContextQFormer मौजूदा मॉडलों की तुलना में प्रदर्शन में सुधार दिखाता है (2%-4%)
Limitations:
TMDialog डेटासेट की विशिष्ट संरचना और आकार, तथा डेटा गुणवत्ता के बारे में विस्तृत जानकारी का अभाव।
ContextQFormer के लिए प्रदर्शन सुधार अपेक्षाकृत कम, 2-4% हो सकता है
अन्य मल्टीमॉडल वार्तालाप मॉडलों के साथ तुलनात्मक विश्लेषण के अभाव के कारण सामान्यीकरण के लिए आगे सत्यापन की आवश्यकता है।
👍