본 논문은 사후 학습 지식 편집(KE)을 통해 언어 모델(LM)의 지식을 정확하고 최신 상태로 유지하는 연구에 초점을 맞춥니다. 특히, 지식 편집 후 LM이 논리적으로 관련된 지식에 대해서도 정확하게 답변하는, 즉 파급 효과(ripple effects)를 제대로 처리하는 문제를 다룹니다. 기존 KE 방법들이 여전히 혼란스러운 파급 효과를 생성하는 이유를 분석하여, 원래 사실과 관련 지식의 기울기(gradient) 간 코사인 유사도를 측정하는 GradSim이라는 지표를 제시합니다. 다양한 LM, KE 방법 및 평가 지표에 걸쳐 파급 효과 성능과 GradSim 간 강한 양의 상관관계를 관찰하고, 부정, 과도한 파급 효과, 다국어와 같은 세 가지 반직관적인 실패 사례 분석을 통해 이러한 실패가 낮은 GradSim과 관련이 있음을 보여줍니다. 결론적으로 GradSim이 LM에서 지식이 파급될 때를 효과적으로 나타내는 지표임을 검증합니다.