본 논문은 대규모 언어 모델(LLM)의 오류 및 낙후된 지식을 최소 비용으로 수정하는 모델 편집(Model Editing)에 초점을 맞추고 있습니다. 기존 연구에서는 모델 편집 방법의 효과를 평가하기 위한 다양한 데이터셋을 제안했지만, 대부분 짧은 구절이나 문장만 출력하는 작업에 집중하여 실제 세계의 문서 수준 작업의 광범위한 존재를 간과했습니다. 따라서 본 논문은 실제 시나리오에서 모델 편집의 적용을 촉진하기 위해 문서 수준 모델 편집 작업을 제안합니다. 문서 수준 입력 및 출력, 외삽(extrapolation), 그리고 단일 편집 내 다중 사실을 특징으로 하는 \benchmarkname 데이터셋을 소개하고, 일련의 평가 지표와 실험을 제시합니다. 실험 결과는 문서 수준 모델 편집의 어려움이 기존 모델 편집 방법에 과제를 제시함을 보여줍니다.