DRAGO는 보상 함수는 다르지만 상태 공간이나 동역학은 동일한 일련의 작업에서 세계 모델의 점진적 개발을 개선하기 위한 새로운 지속적 모델 기반 강화 학습 접근 방식입니다. DRAGO는 두 가지 주요 구성 요소로 이루어져 있습니다. 첫째, 과거 작업에서 생성 모델을 활용하여 합성 경험을 생성하는 합성 경험 리허설(Synthetic Experience Rehearsal)은 데이터를 저장하지 않고도 에이전트가 이전에 학습한 동역학을 강화할 수 있도록 합니다. 둘째, 과거 작업의 관련 상태를 재방문하도록 에이전트를 안내하는 내재적 보상 메커니즘을 도입하는 기억 회복을 통한 탐색(Regaining Memories Through Exploration)입니다. 이러한 구성 요소를 통해 에이전트는 포괄적이고 지속적으로 발전하는 세계 모델을 유지하여 다양한 환경에서 더 효과적인 학습과 적응을 가능하게 합니다. 실험적 평가는 DRAGO가 작업 간 지식을 유지하고 다양한 지속적 학습 시나리오에서 우수한 성능을 달성함을 보여줍니다.