यह शोधपत्र जांच करता है कि क्या बड़े पैमाने पर भाषा मॉडल (एलएलएम) अपने प्रशिक्षण डेटा में जानकारी के बारे में अनुमान लगा सकते हैं। विशेष रूप से, हम आउट-ऑफ-कॉन्टेक्स्ट अपहरण पर ध्यान केंद्रित करते हैं, प्रशिक्षण डेटा में मौजूद प्रासंगिक जानकारी का उपयोग करके किसी अवलोकन के लिए सबसे प्रशंसनीय स्पष्टीकरण का अनुमान लगाने की क्षमता। शोधकर्ताओं ने चैटबॉट्स के साथ बातचीत के उदाहरणों को छोड़कर, काल्पनिक चैटबॉट्स के नामों और व्यवहार संबंधी विवरणों के साथ एलएलएम को प्रशिक्षित किया। उन्होंने पाया कि ओपनएआई का जीपीटी -4 चैटबॉट की विशिष्ट प्रतिक्रियाओं को देखने के बाद उसका नाम सटीक रूप से अनुमान लगा सकता है। इसके अलावा, जब चैटबॉट के व्यवहार संबंधी विवरणों के साथ पूर्व-प्रशिक्षण दिया गया, तो जीपीटी -4 ने प्रदर्शित किया कि यह बार-बार प्रशिक्षण के माध्यम से चैटबॉट के विशिष्ट व्यवहारों को बेहतर ढंग से पकड़ सकता है।