본 논문은 대규모 언어 모델(LLM)이 문맥 내 학습(ICL)을 통해 새로운 정보를 처리할 수 있지만, 파인 튜닝을 통해 모델 가중치에 해당 정보를 효과적으로 통합하는 데 어려움이 있다는 문제에 착안하여, 새로운 뉴스 데이터를 활용한 파인 튜닝 기법을 제안한다. 'New News'라는 가상 뉴스 데이터셋을 구축하고, 모델 가중치에 지식을 주입하는 'System-2 Fine-tuning (Sys2-FT)' 기법을 개발하여 ICL과 Sys2-FT의 성능을 비교 분석했다. 특히, 자체 질의응답(Self-QA) 프로토콜을 활용한 Sys2-FT가 모델의 뉴스 관련 지식 학습에 효과적임을 입증했다. 또한, 문맥 그림자 효과를 발견하고, Sys2-FT의 스케일링 법칙 가능성을 제시했다.