본 논문은 저자원 언어에 대한 교차 언어 요약(CLS)에서 대규모 언어 모델(LLM)의 성능을 향상시키는 새로운 방법을 제시합니다. 기존 연구에서 저자원 언어에 대한 LLM의 CLS 성능이 미흡함을 보였는데, 이 논문에서는 '요약, 개선, 번역, 다듬기(SITR)'라는 4단계 제로샷 방법을 제안합니다. SITR은 신중하게 설계된 프롬프트를 사용하여 LLM의 잠재력을 최대한 활용합니다. 다양한 저자원 언어를 포함하는 두 개의 기존 CLS 데이터셋을 사용하여 여러 LLM을 평가한 결과, GPT-3.5와 GPT-4가 제안된 방법을 통해 다른 기준 모델보다 성능이 훨씬 우수함을 보였습니다. 결론적으로 본 논문은 제로샷 SITR 방법을 통해 LLM이 저자원 언어의 CLS 작업을 효과적으로 처리할 수 있음을 보여줍니다.