यह शोधपत्र बड़े पैमाने के भाषा मॉडलों (एलएलएम) की चुनौतियों पर विचार करता है, जिन्हें स्थैतिक प्रशिक्षण डेटा की सीमाओं के कारण मतिभ्रम और सुरक्षा जोखिमों जैसी चुनौतियों का सामना करना पड़ता है। जबकि मॉडल के आंतरिक ज्ञान को संशोधित करने वाला लोकेट-एंड-एडिट प्रतिमान, पुनर्प्रशिक्षण का एक लागत-प्रभावी विकल्प साबित हुआ है, वर्तमान असंरचित दृष्टिकोण, विशेष रूप से विंडो-आधारित ऑटोरिग्रैसिव विधियाँ, अक्सर प्रारंभिक मेमोरी अपडेट और बाद के आउटपुट टोकन के बीच कारण-कार्य निर्भरताओं को बाधित करती हैं। यह अध्ययन सैद्धांतिक रूप से इन सीमाओं का विश्लेषण करता है और मैट्रियोश्का असंरचित ज्ञान संपादन ($\Mu$KE) प्रस्तुत करता है, जो एक नवीन मेमोरी अपडेट तंत्र है जो मैट्रियोश्का-शैली के उद्देश्यों और अनुकूली हानि गुणांकों का उपयोग करके इन निर्भरताओं को संरक्षित करता है। दो मॉडलों के लिए चार बेंचमार्क पर किए गए प्रायोगिक मूल्यांकन दर्शाते हैं कि $\mu$KE अत्याधुनिक विधियों की तुलना में संपादन दक्षता में 12.33% तक सुधार करता है और विभिन्न संपादन प्रारूपों में मज़बूत बना रहता है, जो एलएलएम में प्रभावी असंरचित ज्ञान संपादन की क्षमता को उजागर करता है।