대규모 언어 모델(LLM)은 영어 중심의 학습 데이터로 인해 비영어권 언어의 성능이 제한적이라는 한계를 가지고 있습니다. 기존의 다국어 프롬프팅 방법들은 영어 번역이나 LLM 추론 패턴과의 정렬을 통해 비영어 질의를 처리하지만, 문화적 맥락을 고려하지 않아 효과가 제한적입니다. 본 논문에서는 문화적 맥락을 통합하여 LLM의 다국어 능력을 향상시키는 EMCEI라는 간단하면서도 효과적인 방법을 제안합니다. EMCEI는 LLM의 매개변수 지식에서 관련 문화적 맥락을 추출한 후, LLM-as-Judge 메커니즘을 사용하여 문화적 적절성과 추론 능력을 균형 있게 고려하여 가장 적절한 응답을 선택하는 두 단계 과정을 따릅니다. 다양한 다국어 벤치마크 실험 결과, EMCEI는 기존 기준 모델보다 우수한 성능을 보이며 다국어 질의 처리에 대한 효과를 입증합니다.