दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

संवाद से पर्दा हटाना? षड्यंत्र के सिद्धांतों को चुनौती देने के लिए AI-जनित प्रतिभाषण की खोज

Created by
  • Haebom

लेखक

मैरिके लिस्कर, क्रिस्टीना गॉट्सचॉक, हेलेना मिहालजेवी सी

रूपरेखा

यह शोधपत्र हानिकारक ऑनलाइन सामग्री (षड्यंत्र सिद्धांतों) का मुकाबला करने की एक रणनीति के रूप में प्रतिभाषण (खंडन) पर केंद्रित है। चूँकि विशेषज्ञ-संचालित प्रतिभाषण का पैमाना निर्धारित करना कठिन है, इसलिए हम बड़े पैमाने के भाषा मॉडल (एलएलएम) का उपयोग करने वाली एक विधि प्रस्तावित करते हैं। हालाँकि, हम षड्यंत्र सिद्धांतों के लिए प्रतिभाषण डेटासेट की कमी पर प्रकाश डालते हैं। हम मनोवैज्ञानिक शोध पर आधारित संरचित संकेतों का उपयोग करके GPT-4o, लामा 3 और मिस्ट्रल मॉडलों की प्रतिभाषण निर्माण क्षमताओं का मूल्यांकन करते हैं। प्रायोगिक परिणाम दर्शाते हैं कि ये मॉडल सामान्य, दोहराव वाले और सतही परिणाम देते हैं, भय पर अत्यधिक बल देते हैं, और तथ्यों, स्रोतों और आंकड़ों को गढ़ते हैं। इससे पता चलता है कि संकेत-आधारित दृष्टिकोण व्यावहारिक अनुप्रयोग के लिए चुनौतियाँ प्रस्तुत करते हैं।

Takeaways, Limitations

Takeaways: यह अध्ययन एलएलएम का उपयोग करके षड्यंत्र सिद्धांत प्रतिभाषण उत्पन्न करने की क्षमता और सीमाओं का अनुभवजन्य रूप से अन्वेषण करता है, और भविष्य के शोध की दिशाएँ सुझाता है। यह एलएलएम की प्रतिभाषण उत्पन्न करने की क्षमता की वर्तमान अपर्याप्तता को स्पष्ट रूप से प्रदर्शित करता है।
Limitations: मूल्यांकन के लिए उपयोग किए जाने वाले डेटासेट की कमी के कारण सामान्यीकरण में कठिनाई। मॉडल-जनित प्रतिभाषण की प्रभावशीलता के वास्तविक-विश्व सत्यापन का अभाव। हालाँकि LLM (सामान्यीकृत प्रतिक्रियाएँ, तथ्यात्मक विकृति, और भय की अति-पहचान) की सीमाएँ स्पष्ट रूप से प्रकट होती हैं, लेकिन इन सीमाओं को दूर करने के लिए विशिष्ट समाधानों का अभाव है।
👍