Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Cross-Lingual Prompt Steerability: Towards Accurate and Robust LLM Behavior across Languages

Created by
  • Haebom
Category
Empty

저자

Lechen Zhang, Yusheng Zhou, Tolga Ergen, Lajanugen Logeswaran, Moontae Lee, David Jurgens

개요

본 논문은 대규모 언어 모델(LLM)의 추론 시 시스템 프롬프트가 다국어 환경에서 정확하고 견고한 동작을 유도하는 방법에 대한 연구를 제시합니다. 다국어 환경에서 시스템 프롬프트를 평가하기 위해 4차원 평가 프레임워크를 제안하고, 5개 언어, 3개 LLM, 3개 벤치마크에 대한 대규모 실험을 수행했습니다. 그 결과, CoT, 감정, 시나리오와 같은 특정 프롬프트 구성 요소가 견고한 다국어 동작과 관련이 있음을 발견했습니다. 또한, 다국어 설정을 위한 프롬프트 최적화 프레임워크를 개발하여 모든 지표를 5-10% 향상시키는 프롬프트를 자동으로 발견할 수 있음을 보였습니다. 마지막으로, 1,000만 개 이상의 추론 단위를 분석하여 더 나은 성능의 시스템 프롬프트가 더 구조적이고 일관된 추론 패턴을 유도하고 불필요한 언어 전환을 줄인다는 것을 확인했습니다.

시사점, 한계점

시사점:
시스템 프롬프트는 LLM의 다국어 성능을 향상시키는 데 효과적입니다.
CoT, 감정, 시나리오와 같은 특정 프롬프트 구성 요소는 다국어 성능 향상에 기여합니다.
프롬프트 최적화 프레임워크를 통해 다국어 성능을 자동으로 향상시킬 수 있습니다.
더 나은 프롬프트는 더 구조적이고 일관된 추론을 유도합니다.
한계점:
5개 언어, 3개 LLM, 3개 벤치마크에 대한 실험만으로는 일반화가 제한적일 수 있습니다.
제안된 프롬프트 최적화 프레임워크의 효율성과 확장성에 대한 추가적인 연구가 필요합니다.
언어 전환 감소가 실제로 성능 향상으로 이어지는지에 대한 추가적인 분석이 필요합니다.
👍