본 논문은 지속적 학습(Continual Learning) 분야의 주요 과제인 이전 지식 망각 문제를 해결하기 위해, 특히 대규모 언어 모델(LLM)에서 리플레이(Replay) 기법의 성능 향상에 초점을 맞춘 연구입니다. 리플레이의 두 가지 실패 요인인 선택(Selection)과 통합(Integration)을 해결하기 위해, 가장 놀라운 시퀀스를 저장하는 Surprise-prioritised Replay (SuRe)를 제안하고, 듀얼 학습자 설계를 통해 빠른 적응과 장기적 지식 안정화를 도모했습니다. 제안된 방법은 기존 SOTA를 뛰어넘는 성능을 보이며, 리플레이 기법을 지속적 학습을 위한 강력한 기반으로 자리매김했습니다.