본 논문은 대규모 언어 모델(LLM)의 지식을 효율적으로 업데이트하는 모델 편집 기법의 한계점인 UnderEdit(지식 편집 실패)와 OverEdit(인접 지식 오염) 문제를 해결하기 위해 제안된 연구이다. 기존 모델 편집의 단일 매개변수 업데이트 방식의 한계를 극복하고자, 반복적인 모델 편집(iterative model editing)과 이웃 지식을 활용한 모델 편집(neighbor-assisted model editing)을 제안한다. 실험 결과, 제안된 방법은 여러 모델 편집 알고리즘, LLM, 벤치마크 데이터셋에서 UnderEdit를 최대 38퍼센트, OverEdit를 최대 6퍼센트까지 감소시키는 효과를 보였다.