यह शोधपत्र अनलर्निंग पर चर्चा करता है, जो बड़े पैमाने के भाषा मॉडल (एलएलएम) में डेटा गोपनीयता, नियामक अनुपालन और नैतिक एआई परिनियोजन का समर्थन करने वाली एक उभरती हुई तकनीक है। हाल की तकनीकें अक्सर अस्पष्टीकरण पर निर्भर करती हैं, जो गलत या अप्रासंगिक जानकारी डालकर ज्ञान को दबा देती है। हालाँकि, यह दृष्टिकोण अक्सर ज्ञान को हटाने के बजाय जोड़ता है, जिससे मॉडल जाँच के लिए असुरक्षित हो जाता है। यह शोधपत्र औपचारिक रूप से अनलर्निंग और अस्पष्टीकरण के बीच अंतर करता है और यह आकलन करने के लिए एक जाँच-आधारित मूल्यांकन ढाँचा प्रस्तुत करता है कि क्या मौजूदा दृष्टिकोण वास्तव में लक्षित जानकारी को हटाते हैं। इसके अलावा, हम DF-MCQ, एक नवीन अनलर्निंग विधि प्रस्तावित करते हैं जो KL-विचलन का उपयोग करके स्वचालित रूप से उत्पन्न बहुविकल्पीय प्रश्नों के लिए मॉडल के पूर्वानुमान वितरण को समतल करके लक्षित व्यक्तियों के बारे में ज्ञान को प्रभावी ढंग से हटा देती है, जिससे उचित अस्वीकृति व्यवहार उत्पन्न होता है। प्रायोगिक परिणाम दर्शाते हैं कि DF-MCQ 90% से अधिक की अस्वीकृति दर प्राप्त करता है और यादृच्छिक चयन द्वारा प्राप्त अनिश्चितता के स्तर से काफी अधिक अनिश्चितता के स्तर के साथ अनलर्निंग प्राप्त करता है।