본 논문은 순차적으로 새로운 다양한 작업을 학습하는 인간의 능력을 모방하는 지속적 학습(Continual Learning)에 초점을 맞추고 있습니다. 기존 지속적 학습의 어려움 중 하나인 catastrophic forgetting 문제를 해결하기 위해, 기존의 리허설 기반 방법(이전 데이터를 작은 버퍼에 저장하여 재사용하는 방법)의 한계를 극복하는 새로운 손실 함수인 STAR를 제안합니다. STAR는 모델 예측의 KL-divergence를 최소화하는 최악의 파라미터 변동을 활용하여 안정성을 높이고 망각을 완화합니다. 실험 결과, STAR는 다양한 기준 모델에서 기존 방법의 성능을 최대 15%까지 향상시키고, 최첨단 방법과 비교하여 우수하거나 경쟁력 있는 정확도를 달성함을 보여줍니다. STAR는 플러그 앤 플레이 방식으로 기존 리허설 기반 방법과 결합하여 사용할 수 있습니다.