본 논문은 실세계 적용 머신러닝 모델이 데이터 생성 분포 변화에 적응하기 위해 지속적으로 새로운 작업을 학습해야 하는 지속적 학습(Continual Learning, CL) 문제를 다룬다. 기존 베이지안 CL 방법들은 후방 분포를 반복적으로 업데이트하면서 이전 추정치와 가깝게 유지하도록 제약하는 변분 방법을 사용하지만, 반복적인 근사 오류 누적 문제가 발생할 수 있다는 점을 지적한다. 따라서 본 논문에서는 이전 여러 후방 추정의 규제 효과를 통합하여 개별 오류가 미래 후방 업데이트를 지배하고 시간에 따라 누적되는 것을 방지하는 새로운 학습 목표를 제안한다. 이러한 목표와 강화 학습 및 신경 과학에서 널리 사용되는 시간 차이(Temporal-Difference) 방법 간의 통찰력 있는 연결 관계를 밝히고, 실험을 통해 제안된 접근 방식이 기존 변분 CL 방법보다 우수하게 망각 문제를 완화함을 보여준다.