본 논문은 대규모 언어 모델(LLM)의 지식이 시간 경과에 따라 오래되기 때문에, 특히 독점 정보를 주입할 때 효율적인 업데이트 방법이 필요하다는 점을 다룹니다. 연구 결과, 질문 답변이나 빈칸 채우기와 같은 이해력 중심의 미세 조정 작업은 번역이나 텍스트-JSON 변환과 같은 매핑 중심 작업에 비해 훨씬 높은 지식 유지율(48% 대 17%, 20%)을 달성하는 것으로 나타났습니다. 이러한 패턴은 모델 아키텍처에 걸쳐 지속되며, 더 큰 모델일수록 모든 작업 유형에서 유지율이 향상되는 스케일링 법칙을 따릅니다. 그러나 모든 모델은 주입된 지식을 더 넓은 맥락에 적용할 때 성능이 크게 저하되어 의미적 통합이 제한적임을 보여줍니다. 이러한 결과는 LLM 지식 업데이트에서 작업 선택의 중요성을 보여주며, 효과적인 지식 주입은 데이터 노출뿐 아니라 미세 조정 중 인지적 참여의 깊이에도 의존함을 시사합니다.