본 논문은 실시간 머신러닝 배포에 적합한, 자원 제약 하에서 개념 변화에 적응하는 동적 모델 업데이트 정책인 RCCDA를 제안합니다. RCCDA는 과거 손실 정보와 조정 가능한 변화 임계값만을 사용하여 머신러닝 훈련 역학을 최적화하면서 미리 정의된 자원 제약을 엄격하게 준수하도록 설계되었습니다. 리야푸노프 드리프트-플러스-페널티 프레임워크를 이용하여 업데이트 빈도와 비용을 증명 가능하게 제한하는 경량 정책을 제시하며, 세 가지 도메인 일반화 데이터셋에 대한 실험 결과를 통해 여러 개념 변화 일정 하에서 자원 제약을 준수하면서 추론 정확도 측면에서 기존 방법보다 우수한 성능을 보임을 입증합니다. 기존 방법들은 자원 제약 환경에서 높은 계산 오버헤드를 발생시키거나 자원 사용량 또는 이론적 성능 보장을 제공하지 못하는 한계를 가지고 있으나, RCCDA는 이러한 단점들을 극복합니다.