본 논문은 대규모 언어 모델(LLM)에서 특정 사실을 수정하거나 주입하기 위한 경량화된 방법인 지식 편집(Knowledge Editing, KE)과 새로운 도메인 및 작업에 LLM을 적응시키는 데 사용되는 미세 조정(Fine-tuning)을 결합하여, 미세 조정 후 편집 내용의 생존 여부를 체계적으로 연구한다. 두 가지 실용적인 시나리오(은밀하거나 악의적인 편집 제거, 유익한 편집 보존)를 고려하여, 다양한 편집 방법, 미세 조정 기법, LLM 및 데이터 세트를 사용하여 편집 쇠퇴 현상을 정량적으로 분석한다. 특히, 편집된 레이어만 미세 조정하는 전략을 제안하고, 전체 LLM 애플리케이션 파이프라인을 고려하여 모델 편집을 평가해야 함을 강조한다.