시간 시계열 데이터는 종종 분포 변화, 다양한 잠재적 특징, 비정상 학습 역학을 나타내며, 특히 개방적이고 진화하는 환경에서 이러한 특성은 Out-of-Distribution (OOD) 일반화에 상당한 문제를 제기한다. 본 논문은 시간 시계열에 대한 OOD 일반화 방법론에 대한 최초의 포괄적인 리뷰를 제시하여, 해당 분야의 진화 궤적과 현대 연구 경향을 설명한다. 데이터 분포, 표현 학습, OOD 평가라는 세 가지 기본 차원을 중심으로 분석을 구성하고, 각 차원에 대해 여러 인기 알고리즘을 자세히 설명한다. 또한 주요 응용 시나리오를 강조하고, 실제 영향력을 제시하며, 지속적인 과제와 미래 연구 방향을 제안한다.