Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Towards Neural Scaling Laws for Time Series Foundation Models

Created by
  • Haebom
Category
Empty

저자

Qingren Yao, Chao-Han Huck Yang, Renhe Jiang, Yuxuan Liang, Ming Jin, Shirui Pan

개요

본 논문은 시간 순서 데이터 기반 모델(TSFM)의 확장 법칙에 대해 연구합니다. 기존 연구는 주로 훈련 데이터 분포 내(in-distribution, ID) 성능에 집중한 반면, 본 논문은 훈련 데이터 분포 외(out-of-distribution, OOD) 성능 및 모델 아키텍처의 영향을 조사합니다. 인코더 전용 및 디코더 전용 Transformer 두 가지 아키텍처를 사용하여 매개변수 수, 연산량, 데이터셋 크기를 변화시키면서 실험을 진행합니다. 그 결과, TSFM의 로그 우도 손실은 ID 및 OOD 설정 모두에서 유사한 확장 동작을 보이는 것을 발견했습니다. 또한, 최첨단 두 TSFM을 사례 연구로 포함하여 서로 다른 아키텍처 간의 확장 특성을 비교 분석하여 모델 아키텍처가 확장에 중요한 역할을 한다는 것을 보여줍니다. 인코더 전용 Transformer가 디코더 전용 Transformer보다 확장성이 우수하며, 두 개의 고급 TSFM의 아키텍처 개선은 주로 ID 성능을 향상시키지만 OOD 확장성은 감소시킨다는 것을 밝혔습니다. TSFM 확장을 통한 성능 향상이 기대되지만, TSFM 확장 법칙에 대한 포괄적인 이해 부족으로 인해 강력한 모델 확장 프레임워크 개발이 저해되어 왔습니다. 본 연구는 이러한 간극을 메우고 향상된 모델 기능을 갖춘 대규모 TSFM 설계 및 확장을 위한 실용적인 지침을 제공합니다.

시사점, 한계점

시사점:
TSFM의 로그 우도 손실은 ID 및 OOD 설정 모두에서 유사한 확장 동작을 보임.
인코더 전용 Transformer가 디코더 전용 Transformer보다 확장성이 우수함.
최첨단 TSFM의 아키텍처 개선은 ID 성능 향상에 기여하지만 OOD 확장성은 저하시킴.
본 연구는 대규모 TSFM 설계 및 확장을 위한 실용적인 지침을 제공함.
한계점:
연구에 사용된 TSFM 아키텍처 및 데이터셋의 종류가 제한적일 수 있음.
더욱 다양한 아키텍처와 데이터셋에 대한 추가 연구가 필요함.
OOD 성능 향상을 위한 구체적인 아키텍처 설계 전략에 대한 추가 연구가 필요함.
👍