다국어 대규모 언어 모델(LLMs)은 여러 언어의 정보 활용 가능성을 열지만, 사실적 지식 회상은 입력 언어에 따라 일관성이 없다는 문제점이 있습니다. 기존 연구는 영어 기반 프롬프팅 및 평가를 통해 이 문제를 해결하려고 시도했지만, 본 연구는 언어와 사고 이론을 통해 비영어에서 영어로의 전이를 탐구합니다. 이 관점을 통해 LLM에서 언어-사고 결합을 조사하고 사실적 지식이 효과적으로 전이되지 않는 이유를 밝힙니다. 본 연구는 입력 언어, 내부 인지 과정 및 지식 간의 관계를 분석하는 Language-to-Thought (L2T) 프롬프팅 전략을 제안합니다. 실험 결과는 영어 기반 접근 방식이 다른 언어보다 일관되게 우수하다는 가정에 이의를 제기하며, 모델의 내부 사고를 작업에 필요한 지식과 정렬하는 것이 성공적인 교차 언어 전이에 중요하다는 새로운 통찰력을 제공합니다. 또한, 훈련 중에 L2T를 적용하면 LLM이 입력 언어에 대한 의존성을 줄이고 번역 기반 학습 없이 교차 언어 지식 통합을 용이하게 할 수 있음을 보여줍니다. 코드와 데이터셋은 공개될 예정입니다.