दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

केसीआर: एलएलएम में तर्क के माध्यम से दीर्घकालिक ज्ञान संघर्षों का समाधान

Created by
  • Haebom

लेखक

ज़ियांदा झेंग, ज़िजियन हुआंग, मेंग-फेन चियांग, माइकल जे. विटब्रॉक, काईकी झाओ

रूपरेखा

यह शोधपत्र एक ज्ञान संघर्ष तर्क (KCR) ढाँचे का प्रस्ताव करता है जो बड़े पैमाने के भाषा मॉडल (LLM) द्वारा विभिन्न स्रोतों से प्राप्त परस्पर विरोधी ज्ञान, विशेष रूप से लंबे पाठों में परस्पर विरोधी संदर्भों में ज्ञान संघर्षों को हल करने में आने वाली कठिनाई की समस्या का समाधान करता है। KCR, परस्पर विरोधी संदर्भों के सामने आने पर LLM को अधिक तार्किक संगति वाले संदर्भों का चयन करने और उनका पालन करने हेतु प्रशिक्षित करने हेतु सुदृढीकरण अधिगम पर निर्भर करता है। सबसे पहले, यह परस्पर विरोधी लंबे पाठ संदर्भों से, पाठ या स्थानीय ज्ञान ग्राफ़ के रूप में व्यक्त अनुमान पथों को निकालता है। इन पथों के आधार पर, मॉडल को सही अनुमान पथ का अनुसरण करने के लिए प्रशिक्षित किया जाता है, जिससे लंबे पाठ संदर्भों में ज्ञान संघर्षों को हल करने की इसकी क्षमता बढ़ जाती है। प्रायोगिक परिणाम दर्शाते हैं कि प्रस्तावित ढाँचा विभिन्न LLM की ज्ञान संघर्ष समाधान क्षमताओं में उल्लेखनीय रूप से सुधार करता है।

Takeaways, Limitations

Takeaways:
एलएलएम की दीर्घ-प्रारूप संदर्भों को संसाधित करने की क्षमता में सुधार करने में योगदान देता है।
यह परस्पर विरोधी सूचनाओं के प्रसंस्करण के लिए एक नवीन दृष्टिकोण प्रस्तुत करता है।
सुदृढीकरण सीखने का उपयोग करके एलएलएम की तर्क क्षमता को प्रभावी ढंग से सुधारें।
विभिन्न प्रकार के एलएलएम पर लागू होने वाला एक सामान्य ढांचा प्रदान करता है।
Limitations:
प्रस्तावित ढांचे का प्रदर्शन सुदृढीकरण सीखने के एल्गोरिदम और प्रयुक्त पुरस्कार फ़ंक्शन पर निर्भर हो सकता है।
अनुमान पथ निष्कर्षण प्रक्रिया की सटीकता समग्र प्रदर्शन को प्रभावित कर सकती है।
यह केवल कुछ प्रकार के ज्ञान संघर्षों के लिए ही प्रभावी हो सकता है।
प्रशिक्षण डेटा की गुणवत्ता और मात्रा के आधार पर प्रदर्शन भिन्न हो सकता है।
👍