यह शोधपत्र बड़े पैमाने के भाषा मॉडल (एलएलएम) में मतिभ्रम की समस्या पर विचार करता है। मतिभ्रम उस घटना को कहते हैं जिसमें एलएलएम आत्मविश्वास से भरी प्रतिक्रियाएँ उत्पन्न करता है, लेकिन वास्तव में गलत या निरर्थक प्रतिक्रियाएँ उत्पन्न करता है। यह शोधपत्र मतिभ्रम का पता लगाने को एक परिकल्पना परीक्षण समस्या के रूप में प्रस्तुत करता है और मशीन लर्निंग मॉडल में आउट-ऑफ-डिस्ट्रीब्यूशन डिटेक्शन समस्या से इसकी समानता प्रदर्शित करता है। हम बहु-परीक्षण से प्रेरित एक नवीन विधि का प्रस्ताव करते हैं और अत्याधुनिक विधियों के विरुद्ध इसकी सुदृढ़ता की पुष्टि के लिए व्यापक प्रयोगात्मक परिणाम प्रस्तुत करते हैं।