본 논문은 다양한 언어 말뭉치를 사전 훈련하여 인상적인 다국어 능력을 보이는 대규모 언어 모델의 불균형적인 훈련 데이터 분포로 인해 언어 간 성능 차이가 크게 나타나는 문제를 해결하고자 AdaCoT(Adaptive Chain-of-Thought) 프레임워크를 제시합니다. AdaCoT는 중간 "사고 언어"에서 사고 과정을 동적으로 라우팅하여 표적 언어 응답을 생성하기 전에 다국어 사실 추론을 향상시킵니다. 추가적인 사전 훈련 없이 적응적 보상 기반 메커니즘을 사용하여 최적의 추론 경로를 선택하며, 언어에 독립적인 코어를 활용합니다. 다양한 벤치마크에 대한 포괄적인 평가 결과, 사실 추론 품질과 언어 간 일관성이 크게 향상되었으며, 특히 저자원 언어 설정에서 성능 향상이 두드러졌습니다. 적응적 추론 경로는 고자원 언어와 저자원 언어 간의 성능 격차를 효과적으로 해소하면서 문화적, 언어적 미묘함을 유지할 수 있음을 시사합니다.