본 논문은 대규모 언어 모델(LLM)이 연쇄적 사고(CoT) 추론을 통해 문제를 해결하는 최근의 발전이 고자원 언어에 주로 적용되어 저자원 언어는 소외되는 현상에 주목한다. 영어 중심 CoT 학습(English-Pivoted CoT Training)을 제안하여, LLM이 내부적으로 지배적인 언어에 맞춰 작동한다는 통찰력을 활용한다. 저자원 언어로 입력이 주어지면, 영어로 CoT를 생성하고 최종 응답을 대상 언어로 출력하는 지도 학습 기반 미세 조정을 수행한다. 수학적 추론 벤치마크에서 제안하는 방식은 저자원 환경에서 다른 기준선보다 최대 28.33% 더 나은 성능을 보였다. 또한, 혼합 언어 CoT 및 2단계 학습을 포함한 추가 실험과 분석을 통해 언어 이해와 추론의 명확한 분리가 다중 언어 추론 능력을 향상시킨다는 것을 보여준다. 연구를 용이하게 하기 위해, 극도로 저자원이며 멸종 위기에 놓인 언어인 아일랜드어를 위한 최초의 수학적 과제 벤치마크인 \emph{LC2024}를 공개한다.