본 논문은 심층 지속적 강화 학습(continual RL)에서 가소성(plasticity) 상실 문제를, 미니 배치 학습으로 인한 배치 외 데이터에 대한 신경망 출력 변동성인 'churn'의 관점에서 연구합니다. 연구 결과, 가소성 상실은 Neural Tangent Kernel (NTK) 행렬의 계급 감소로 인한 churn 악화와 동반되며, churn 감소는 계급 붕괴를 방지하고 일반적인 RL 기울기의 단계 크기를 적응적으로 조정하는 데 도움이 됨을 보여줍니다. 또한, Continual Churn Approximated Reduction (C-CHAIN)이라는 새로운 방법을 제시하고, OpenAI Gym Control, ProcGen, DeepMind Control Suite, MinAtar 벤치마크에서 다양한 지속적 학습 환경에서 기존 방법보다 성능 향상을 보임을 실험적으로 증명합니다.