Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A More Realistic Evaluation of Cross-Frequency Transfer Learning and Foundation Forecasting Models

Created by
  • Haebom
Category
Empty

저자

Kin G. Olivares, Malcolm Wolff, Tatiana Konstantinova, Shankar Ramasubramanian, Boris Oreshkin, Andrew Gordon Wilson, Andres Potapczynski, Willa Potosnak, Michael W. Mahoney, Mengfei Cao, Dmitry Efimov

개요

본 논문은 Cross-frequency transfer learning (CFTL)의 성능 평가에 대한 문제점을 지적하고, 이를 해결하기 위해 새로운 평가 방법론을 제시한다. 기존 CFTL 연구의 한계점(작은 평가 데이터셋, 샘플 크기 고려 부족, 최적화되지 않은 통계 모델 사용, 사전 학습과 테스트 데이터 간 중복 위험 등)을 개선하기 위해, 널리 사용되는 신경망 기반 예측 모델을 CFTL 환경에 맞게 재구현하고, 자체 데이터 및 합성 데이터를 사용하여 사전 학습을 수행하며, 15개의 대규모 공공 예측 경쟁 데이터셋을 사용하여 평가를 진행했다. 실험 결과, 통계 모델의 정확도가 종종 과소평가되었음을 확인했으며, 통계 모델과 앙상블이 기존 FFM(Foundation Forecasting Models)보다 sCRPS에서 8.2% 이상, MASE에서 20% 이상 우수한 성능을 보였다. 또한 합성 데이터 사전 학습이 FFM의 정확도를 7% 향상시키는 효과가 있음을 확인했다.

시사점, 한계점

통계 모델의 성능 과소평가 문제 지적 및 통계 모델의 우수성 재확인
CFTL 기반 FFM 성능 향상을 위한 합성 데이터 사전 학습의 효과 입증
기존 CFTL 연구의 평가 방식에 대한 개선 방향 제시
제한된 자체 데이터와 합성 데이터만을 사용한 사전 학습
특정 유형의 데이터셋에 대한 일반화 가능성 추가 검증 필요
다양한 FFM 모델에 대한 광범위한 평가 부족
👍