Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Optimal Look-back Horizon for Time Series Forecasting in Federated Learning

Created by
  • Haebom
Category
Empty

저자

Dahao Tang, Nan Yang, Yanli Li, Zhiyu Zhu, Zhibo Jin, Dong Yuan

개요

시간 계열 예측(TSF)에서 적절한 look-back horizon 선택은 특히 데이터가 분산되고, 이질적이며, 종종 독립적이지 않은 연합 학습 시나리오에서 근본적인 과제로 남아 있습니다. 이 논문은 고유 공간 공식을 통해 연합 시계열 예측에서 적응형 horizon 선택을 위한 원칙적인 프레임워크를 제시합니다. 자기회귀 종속성, 계절성 및 추세와 같은 클라이언트 데이터의 필수적인 시간 구조를 캡처하는 합성 데이터 생성기(SDG)를 도입하고 클라이언트별 이질성을 통합합니다. 이 모델을 기반으로, 시간 계열 윈도우를 잘 정의된 기하학적 및 통계적 속성을 가진 고유 표현 공간에 매핑하는 변환을 정의합니다. 그런 다음, 예측 손실을 irreducible uncertainty를 반영하는 Bayesian term과, 유한 샘플 효과 및 제한된 모델 용량을 설명하는 approximation term으로 분해합니다. 분석 결과, look-back horizon을 늘리면 결정론적 패턴의 식별 가능성이 향상되지만, 더 높은 모델 복잡성과 샘플 효율성 감소로 인해 근사 오차가 증가합니다. 총 예측 손실은 irreducible loss가 포화되기 시작하는 가장 작은 horizon에서 최소화되는 반면, approximation loss는 계속 증가한다는 것을 증명합니다.

시사점, 한계점

연합 학습 환경에서 시계열 예측을 위한 적응형 horizon 선택을 위한 원칙적인 프레임워크 제공.
합성 데이터 생성기(SDG)를 사용하여 클라이언트 데이터의 시간적 구조와 이질성을 포착.
예측 손실을 Bayesian term과 approximation term으로 분해하여 horizon 선택에 대한 이론적 근거 제시.
horizon 증가에 따른 irreducible loss와 approximation loss 간의 균형 관계 분석.
중앙 집중식 및 독립적으로 분산된 설정에 제한된 기존 연구의 한계 극복.
모델 복잡성 증가 및 샘플 효율성 감소로 인한 근사 오차 증가.
실제 데이터 적용 및 다양한 연합 학습 시나리오에서의 성능 검증 필요.
👍