본 논문은 지속적 학습에서 심층 신경망의 가소성 상실 문제를 해결하기 위해 경험 재현(experience replay)과 Transformer를 활용하는 새로운 방법을 제안합니다. 기존의 역전파를 이용한 학습 과정에서 신경망은 새로운 작업에 적응하는 능력을 점차 잃고 초기화된 상태보다 성능이 저하되는데, 본 논문은 경험 재현 메모리와 Transformer를 결합하여 이러한 가소성 상실 문제를 해결할 수 있다는 가설을 제시하고, 회귀, 분류, 정책 평가 등 다양한 작업에서 이를 증명합니다. 특히, 역전파, 활성화 함수, 정규화 등 기존 심층 학습의 표준 구성 요소를 변경하지 않고도 가소성 상실 문제를 해결하는 것을 보여줍니다. 이는 Transformer의 맥락 내 학습(in-context learning) 현상 때문일 것이라고 추측합니다.