지속적 학습(CL) 및 강화 학습(RL) 분야에서 진화하는 데이터 스트림에 지속적으로 학습하고 적응할 수 있는 신경망 구축의 어려움을 다룹니다. 특히, 가소성 손실 및 치명적 망각과 같은 문제에 초점을 맞춘 가소성-안정성 딜레마를 해결하고자 합니다. 기존 네트워크 확장 방식의 한계를 극복하기 위해 동적 Mixture-of-Experts (MoE) 아키텍처를 사용하여 지속적 학습 및 강화 학습 환경에서 그 효과를 평가하고 기존 네트워크 확장 방법과 비교합니다.