본 논문은 개념 드리프트 환경에서 자원 제약 조건을 준수하면서 기계 학습 모델을 업데이트하는 동적 정책인 RCCDA를 제안한다. RCCDA는 과거 손실 정보와 조정 가능한 드리프트 임계값을 사용하여 모델 훈련 역학을 최적화한다. 모델 손실의 진화를 분석적으로 특성화하고 Lyapunov 드리프트-플러스-페널티 프레임워크를 통합하여 가볍고 탐욕적인 최적 정책을 개발하여 업데이트 빈도와 비용을 제한한다. 실험 결과는 RCCDA가 엄격한 자원 제약 하에서 추론 정확도 측면에서 기존 방법보다 우수하며, 실시간 ML 배포에 적합함을 보여준다.