본 논문은 대규모 언어 모델(LLMs)의 수정 과정에서 발생하는 환각(hallucination) 문제와 이로 인한 성능 저하에 대한 해결책을 제시한다. LLM의 재훈련은 높은 자원 소모를 필요로 하기 때문에 모델 수정(model editing)이 주목받고 있지만, 연속적인 수정은 모델의 일반적인 성능을 크게 저하시키는 문제점이 있다. 본 논문에서는 연속적인 수정 후 매개변수 행렬의 편차가 커짐을 통계적으로 관찰하고, 이 편차가 기존 지식 연관성을 손상시켜 성능 저하를 야기한다는 것을 밝혔다. 이를 해결하기 위해, Editing Anchor Compression (EAC) 프레임워크를 제안한다. EAC는 중요한 편집 정보만 선택하여 압축함으로써 매개변수 행렬의 편차를 제한하고, 기존 지식을 보존하면서 새로운 관계를 효과적으로 인코딩한다. 세 가지 LLM과 네 가지 작업에 걸쳐 두 가지 인기 있는 편집 방법에 EAC를 적용한 실험 결과, EAC가 모델 편집으로 인한 과도한 편차를 효과적으로 최소화하고, 일반적인 성능의 70% 이상을 유지하면서 편집 지식을 더 잘 보존하는 것을 확인했다.