본 논문은 대규모 언어 모델(LLM)의 지식을 업데이트하는 기존의 모델 편집 방법들의 한계를 다룬다. 기존의 모델 편집 방법들은 매개변수 수정으로 인한 광범위한 지식에 대한 부정적 영향을 과소평가하고, 다단계 추론 및 지속적인 지식 업데이트에 어려움을 겪는다. 논문에서는 10가지 모델 편집 방법을 신뢰성, 일반화, 국소성, 이식성 측면에서 평가하여 그 한계를 확인하고, 매개변수 수정 없이 LLM의 상황적 추론 능력을 활용하는 새로운 방법인 선택적 상황 추론(SCR)을 제안한다. SCR은 외부 지식 베이스를 활용하여 질의에 대한 답변을 생성하며, 실험 결과 기존 방법들보다 효과적이고 효율적인 지식 업데이트를 보여준다.