Este artículo se centra en el estudio de cómo mantener el conocimiento de los modelos de lenguaje (LM) preciso y actualizado mediante la edición de conocimiento (EC) posterior al entrenamiento. En particular, abordamos el problema de garantizar que los LM respondan correctamente al conocimiento lógicamente relacionado después de la edición de conocimiento, es decir, gestionando adecuadamente los efectos de onda. Analizamos por qué los métodos de EC existentes aún generan efectos de onda confusos y proponemos una métrica llamada GradSim, que mide la similitud del coseno entre el gradiente de los hechos originales y el conocimiento relacionado. Observamos una fuerte correlación positiva entre el rendimiento del efecto de onda y GradSim en una variedad de LM, métodos de EC y métricas de evaluación, y mostramos que tres casos de fallo contraintuitivos, como la negación, los efectos de onda excesivos y el multilingüismo, se asocian con un GradSim bajo. En conclusión, verificamos que GradSim es una métrica eficaz para indicar cuándo el conocimiento se propaga en los LM.