Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

RCCDA: Adaptive Model Updates in the Presence of Concept Drift under a Constrained Resource Budget

Created by
  • Haebom
Category
Empty

저자

Adam Piaseczny, Md Kamran Chowdhury Shisher, Shiqiang Wang, Christopher G. Brinton

개요

본 논문은 개념 드리프트 환경에서 자원 제약 조건을 준수하면서 기계 학습 모델을 업데이트하는 동적 정책인 RCCDA를 제안한다. RCCDA는 과거 손실 정보와 조정 가능한 드리프트 임계값을 사용하여 모델 훈련 역학을 최적화한다. 모델 손실의 진화를 분석적으로 특성화하고 Lyapunov 드리프트-플러스-페널티 프레임워크를 통합하여 가볍고 탐욕적인 최적 정책을 개발하여 업데이트 빈도와 비용을 제한한다. 실험 결과는 RCCDA가 엄격한 자원 제약 하에서 추론 정확도 측면에서 기존 방법보다 우수하며, 실시간 ML 배포에 적합함을 보여준다.

시사점, 한계점

시사점:
개념 드리프트 환경에서 자원 제약을 준수하며 모델 성능을 유지하는 동적 모델 업데이트 정책 제시.
과거 손실 정보와 드리프트 임계값만을 활용하여 계산 비용을 절감.
Lyapunov 드리프트-플러스-페널티 프레임워크를 통해 업데이트 빈도와 비용을 제한.
4개의 도메인 일반화 데이터셋에서 우수한 성능 입증.
실시간 ML 배포에 적합.
한계점:
드리프트 임계값의 조정 필요성.
특정 데이터셋에 대한 성능이 다른 데이터셋으로 일반화될 수 있는지 추가적인 연구 필요.
복잡한 개념 드리프트 환경에서의 성능 검증 필요.
👍