본 논문은 추론 언어 모델(RLM)이 다국어 추론 작업에서 고자원 언어에 비해 저자원 언어에서 성능이 낮은 다국어 추론 격차의 원인을 분석하고 해결책을 제시한다. 연구 결과, 다국어 추론 격차는 언어 이해 실패, 즉 모델이 다국어 입력을 지배적인 언어(영어)로 표현하는 데 실패하는 데서 비롯된다는 것을 밝혀냈다. 이러한 이해 실패를 감지할 수 있는지 평가하고, 이를 바탕으로 이해 실패가 감지될 때만 다국어 입력을 영어로 번역하는 선택적 번역 전략을 제안한다. 실험 결과, 선택적 번역은 다국어 추론 격차를 해소하고, 약 20%의 입력에만 번역을 사용하면서 거의 완전 번역과 같은 성능을 달성했다.