Este artículo aborda los desafíos de los modelos de lenguaje a gran escala (LLM), que enfrentan desafíos como alucinaciones y riesgos de seguridad debido a las limitaciones de los datos de entrenamiento estáticos. Si bien el paradigma de localizar y editar, que modifica el conocimiento interno del modelo, ha demostrado ser una alternativa rentable al reentrenamiento, los enfoques no estructurados actuales, en particular los métodos autorregresivos basados en ventanas, a menudo alteran las dependencias causales entre las actualizaciones iniciales de memoria y los tokens de salida posteriores. Este estudio analiza teóricamente estas limitaciones y presenta Matryoshka Unstructured Knowledge Editing ($\mu$KE), un novedoso mecanismo de actualización de memoria que preserva estas dependencias mediante objetivos de estilo Matryoshka y coeficientes de pérdida adaptativos. Las evaluaciones experimentales en cuatro puntos de referencia para dos modelos demuestran que $\mu$KE mejora la eficiencia de la edición hasta en un 12,33 % con respecto a los métodos de vanguardia y se mantiene robusto en diversos formatos de edición, lo que destaca el potencial de la edición efectiva de conocimiento no estructurado en LLM.