시계열 데이터는 심각한 비정상성을 보이며, 대부분의 예측 방법은 개념 변화에 대한 견고성이 떨어진다. 본 논문은 개념 변화를 바이어스-분산 관점에서 분석하고, 가중 앙상블이 바이어스를 증가시키지 않으면서 분산을 줄인다는 것을 증명한다. 이를 바탕으로, 내재적 신호를 점진적으로 재구성하는 새로운 종단간 듀얼 스트림 잔차 감소 부스팅 방법인 DeepBooTS를 제안한다. DeepBooTS는 각 블록이 보조 출력 분기를 가진 학습자의 앙상블이 되어 최종 예측으로 가는 하이웨이를 형성한다. 블록별 출력은 이전 블록의 잔차를 수정하여 입력과 대상 모두 학습 기반 분해를 이끈다. 이 방법은 다용도성과 해석 가능성을 향상시키면서 개념 변화에 대한 견고성을 크게 향상시킨다. 대규모 데이터 세트를 포함한 광범위한 실험 결과는 제안된 방법이 기존 방법을 큰 폭으로 능가하여 다양한 데이터 세트에서 평균 15.8%의 성능 향상을 보이며 시계열 예측에 대한 새로운 벤치마크를 설정함을 보여준다.