본 논문은 지속적인 정보 업데이트에 적응하는 대규모 언어 모델(LLM)을 위한 효율적이고 확장 가능한 모델 편집 방법인 UltraEdit을 제안합니다. UltraEdit은 훈련, 주제, 메모리가 필요 없는 접근 방식으로, 은닉 상태와 기울기만을 사용하여 한 번에 파라미터 변화를 계산합니다. 또한, 지속적인 정규화 전략을 사용하여 분포 변화에 적응하고 일관성을 유지합니다. UltraEdit은 기존 최첨단 방법보다 7배 이상 빠른 편집 속도를 보이며, 7B LLM을 24GB GPU에서 편집할 수 있는 유일한 방법입니다. UltraEditBench라는 2백만 개 이상의 편집 쌍을 가진 대규모 데이터셋을 구축하여 최대 2백만 개의 편집을 지원하며, 다양한 모델 편집 시나리오에서 우수한 성능을 보입니다.