본 논문은 저자원 언어에서의 추론 능력 향상을 위해 대규모 언어 모델(LLM)의 다국어 처리 메커니즘을 연구합니다. LLM이 지배적인 언어(예: 영어)에 치우친 잠재 공간에서 작동하는 현상을 활용하여, 저자원 언어로 입력된 질문에 대해 영어로 추론 과정(CoT)을 생성하고 최종 답변을 목표 언어로 출력하는 'English-Pivoted CoT Training' 방법을 제시합니다. 실험 결과, 이 방법은 목표 언어로 CoT와 최종 답변을 모두 생성하는 기존 방법보다 최대 28.33% 향상된 성능을 보였습니다. 이는 LLM의 추론과 다국어 능력 간의 관계에 대한 새로운 통찰력을 제공하며, 다국어 대규모 추론 모델 개발을 위한 개선된 접근 방식을 제시합니다.