본 논문은 대규모 언어 모델(LLM)의 파인튜닝 과정에서 발생하는 치명적인 망각 문제를 해결하는 새로운 방법인 SEAT를 제시합니다. 기존 연구들이 기존 데이터에 대한 성능 유지를 중점적으로 다룬 것과 달리, 본 논문은 정렬 과정에서 습득된 필수적인 능력, 특히 모델의 불확실성을 정확하게 표현하는 능력(무지 인식)의 손실 문제에 주목합니다. 저자들은 무지 인식 개념을 공식화하고, 기존 파인튜닝 방법들이 활성화 변위를 야기하여 무지 인식 능력을 저해하고 환각과 같은 바람직하지 않은 행동으로 이어질 수 있음을 보여줍니다. SEAT는 활성화 변위를 제한하는 희소 튜닝과 지식 얽힘을 해결하기 위한 새로운 엔티티 섭동 방법을 통합하여, 새로운 지식을 효과적으로 습득하면서 동시에 정렬된 무지 인식을 유지합니다. 실험 결과, SEAT는 실제 및 합성 데이터셋 모두에서 기존 방법보다 무지 인식 유지 및 파인튜닝 성능 측면에서 우수한 성능을 보였습니다.