본 논문은 지속적인 강화 학습(Continual Reinforcement Learning, CRL)을 위한 새로운 연구 플랫폼인 AgarCL을 소개합니다. AgarCL은 비에피소드적이고 고차원적인 게임 Agar.io를 기반으로 하며, 확률적이고 지속적으로 변화하는 역동성, 연속적인 행동, 부분 관측 가능성 등의 특징을 가지고 있습니다. 기존의 CRL 연구에서 사용되는 시뮬레이터들이 범위나 복잡성에 제한적인 것과 달리, AgarCL은 점점 더 정교한 행동의 발전을 가능하게 합니다. 본 논문에서는 DQN, PPO, SAC 알고리즘을 AgarCL의 주요 과제와 각각의 측면을 분리한 여러 하위 과제에 적용하여 성능을 벤치마킹한 결과도 함께 제시합니다.