[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

The Impact of Language Mixing on Bilingual LLM Reasoning

Created by
  • Haebom

저자

Yihao Li, Jiayi Xin, Miranda Muqing Miao, Qi Long, Lyle Ungar

개요

이 논문은 중국어-영어 이중 언어 추론 모델에서 언어 전환(language switching) 현상을 연구합니다. 강력한 이중 언어 능력을 가진 최신 이중 언어 대규모 언어 모델(LLM)에서 사고 과정 중 언어를 번갈아 사용하는 현상(language mixing)이 관찰되었으며, 이를 DeepSeek-R1 모델에서 억제했을 때 정확도가 저하되는 것을 확인했습니다. 본 연구는 강화 학습과 검증 가능한 보상(RLVR)이 언어 전환을 유발하는 핵심 훈련 단계임을 밝히고, 언어 전환이 추론 능력 향상에 기여함을 실험적으로 증명합니다. 수학 추론 과제에서 단일 언어 디코딩을 강제할 경우 정확도가 5.6% 감소하며, 경량 프로브를 이용하여 언어 전환이 추론에 도움이 될지 해가 될지 예측하고 디코딩에 활용하면 정확도를 최대 6.25% 향상시킬 수 있음을 보였습니다. 결론적으로 언어 전환은 단순한 다국어 훈련의 부산물이 아니라 전략적인 추론 행위임을 시사합니다.

시사점, 한계점

시사점:
이중 언어 LLM에서 언어 전환이 추론 성능 향상에 기여할 수 있음을 밝힘.
강화 학습과 검증 가능한 보상(RLVR)이 언어 전환 현상을 유발하는 핵심 요인임을 제시.
언어 전환의 유익성을 예측하는 경량 프로브를 통해 추론 정확도를 향상시킬 수 있음을 증명.
언어 전환이 단순한 부산물이 아닌 전략적인 추론 행위임을 시사.
한계점:
연구는 특정 이중 언어 모델(DeepSeek-R1)과 수학 추론 과제에 국한되어 일반화 가능성에 대한 추가 연구 필요.
경량 프로브의 성능은 특정 데이터셋과 모델에 의존적일 수 있음.
다른 유형의 추론 과제나 다른 언어 조합에 대한 추가 연구가 필요.
언어 전환이 추론에 미치는 영향에 대한 메커니즘에 대한 심층적인 분석이 필요.
👍