본 논문은 대규모 언어 모델(LLM)의 지식을 효율적으로 업데이트하는 모델 편집 기법을 제안합니다. 기존의 모델 편집 방법은 지식 주입 실패(UnderEdit) 또는 관련 없는 지식의 손상(OverEdit) 문제를 갖고 있습니다. 이를 해결하기 위해, 본 논문에서는 반복적인 모델 편집(iterative model editing)과 이웃 지식 활용 모델 편집(neighbor-assisted model editing)이라는 두 가지 보완적인 방법을 제시합니다. 반복적 편집은 UnderEdit을 완화하고, 이웃 지식 활용 편집은 OverEdit을 줄이는 데 효과적입니다. 실험 결과, 제안된 기법은 다양한 LLM, 알고리즘, 벤치마크에서 편집 성능을 향상시키며, UnderEdit를 최대 38퍼센트, OverEdit를 최대 6퍼센트 감소시키는 것으로 나타났습니다.