यह शोधपत्र बड़े पैमाने के भाषा मॉडलों (LLM) में मतिभ्रम की समस्या के समाधान हेतु एक नवीन विधि, RePPL का प्रस्ताव करता है। मतिभ्रम का पता लगाने की मौजूदा विधियाँ अनिश्चितता मापन पर केंद्रित हैं, लेकिन मतिभ्रम के कारण की व्याख्या करने में विफल रहती हैं। इस सीमा को पार करने के लिए, हम अर्थ-प्रसार और भाषा निर्माण के दौरान उत्पन्न होने वाली अनिश्चितताओं को ध्यान में रखते हुए एक टोकन-स्तरीय अनिश्चितता स्कोर की गणना करते हैं। फिर इन अंकों को एक समग्र मतिभ्रम स्कोर प्राप्त करने के लिए एक पेरप्लेक्सिटी-शैली लघुगणक माध्य के रूप में एकत्रित किया जाता है। हमारी विधि उत्कृष्ट प्रदर्शन प्रदर्शित करती है, विभिन्न QA डेटासेट और अत्याधुनिक मॉडलों पर 0.833 का औसत AUC प्राप्त करती है, जो मतिभ्रम के कारण की व्याख्या करने में टोकन-स्तरीय अनिश्चितता स्कोर की उपयोगिता को प्रदर्शित करता है।