본 논문은 Cross-frequency transfer learning (CFTL)의 성능 평가에 대한 문제점을 지적하고, 이를 해결하기 위해 새로운 평가 방법론을 제시한다. 기존 CFTL 연구의 한계점(작은 평가 데이터셋, 샘플 크기 고려 부족, 최적화되지 않은 통계 모델 사용, 사전 학습과 테스트 데이터 간 중복 위험 등)을 개선하기 위해, 널리 사용되는 신경망 기반 예측 모델을 CFTL 환경에 맞게 재구현하고, 자체 데이터 및 합성 데이터를 사용하여 사전 학습을 수행하며, 15개의 대규모 공공 예측 경쟁 데이터셋을 사용하여 평가를 진행했다. 실험 결과, 통계 모델의 정확도가 종종 과소평가되었음을 확인했으며, 통계 모델과 앙상블이 기존 FFM(Foundation Forecasting Models)보다 sCRPS에서 8.2% 이상, MASE에서 20% 이상 우수한 성능을 보였다. 또한 합성 데이터 사전 학습이 FFM의 정확도를 7% 향상시키는 효과가 있음을 확인했다.