यह शोधपत्र हानिकारक ऑनलाइन सामग्री (षड्यंत्र सिद्धांतों) का मुकाबला करने की एक रणनीति के रूप में प्रतिभाषण (खंडन) पर केंद्रित है। चूँकि विशेषज्ञ-संचालित प्रतिभाषण का पैमाना निर्धारित करना कठिन है, इसलिए हम बड़े पैमाने के भाषा मॉडल (एलएलएम) का उपयोग करने वाली एक विधि प्रस्तावित करते हैं। हालाँकि, हम षड्यंत्र सिद्धांतों के लिए प्रतिभाषण डेटासेट की कमी पर प्रकाश डालते हैं। हम मनोवैज्ञानिक शोध पर आधारित संरचित संकेतों का उपयोग करके GPT-4o, लामा 3 और मिस्ट्रल मॉडलों की प्रतिभाषण निर्माण क्षमताओं का मूल्यांकन करते हैं। प्रायोगिक परिणाम दर्शाते हैं कि ये मॉडल सामान्य, दोहराव वाले और सतही परिणाम देते हैं, भय पर अत्यधिक बल देते हैं, और तथ्यों, स्रोतों और आंकड़ों को गढ़ते हैं। इससे पता चलता है कि संकेत-आधारित दृष्टिकोण व्यावहारिक अनुप्रयोग के लिए चुनौतियाँ प्रस्तुत करते हैं।