यह शोधपत्र बड़े पैमाने के भाषा मॉडलों (एलएलएम) में दीर्घ-रूप तर्क की व्याख्यात्मकता के मुद्दे को संबोधित करने के लिए वाक्य-स्तरीय विश्लेषण पर केंद्रित है। एलएलएम की तर्क प्रक्रियाओं को समझने के लिए, हम तीन पूरक आरोपण विधियाँ प्रस्तावित करते हैं: पहली, एक ब्लैक-बॉक्स विधि जो प्रत्येक वाक्य के प्रति-तथ्यात्मक महत्व को मापती है; दूसरी, एक व्हाइट-बॉक्स विधि जो "प्रसारित" और "प्राप्त" ध्यान शीर्षों की पहचान करने के लिए वाक्यों में ध्यान पैटर्न को एकत्रित करती है; और तीसरी, एक कारणात्मक आरोपण विधि जो एक वाक्य पर ध्यान को दबाती है और अन्य वाक्यों पर उसके प्रभाव को मापती है। तीनों विधियाँ "विचार एंकरों" के अस्तित्व को उजागर करती हैं जो तर्क प्रक्रिया पर अनुचित प्रभाव डालते हैं, यह प्रदर्शित करते हुए कि ये एंकर मुख्य रूप से विचारोत्तेजक या चिंतनशील वाक्य हैं। अंत में, हम विचार एंकरों को दृश्यमान करने के लिए एक ओपन-सोर्स टूल प्रदान करते हैं और बहु-चरणीय अनुमान प्रक्रियाओं में सुसंगत परिणामों को प्रदर्शित करने वाला एक केस स्टडी प्रस्तुत करते हैं।