본 논문은 Chain-of-Thought (CoT) 추론을 활용한 대규모 언어 모델(LLM)이 수학적 문제 해결에 있어, 전문가들이 중간 단계를 생략하여 발생하는 Thought Leaps 문제를 해결하고자 한다. 이를 위해, CoT Thought Leap Bridge Task를 제안하고, ScaleQuestMath 데이터셋을 기반으로 한 ScaleQM+ 훈련 데이터셋을 구축하여, CoT-Bridge 모델을 훈련하여 Thought Leaps를 감지하고 누락된 중간 추론 단계를 생성함으로써 CoT의 완전성과 일관성을 복원한다. 실험 결과, CoT-Bridge를 통해 보완된 데이터셋으로 훈련된 모델이 기존 데이터셋으로 훈련된 모델보다 성능이 향상되었으며, 특히 NuminaMath에서 최대 +5.87%의 개선을 보였다. 또한, 본 연구는 데이터 정제와 강화 학습에 도움이 되며, 일반화 성능 향상에도 기여함을 확인했다.