본 논문은 저자원 언어에 대한 대규모 언어 모델(LLM) 적용의 어려움을 해결하기 위해, 기존 XNLI(Cross-Lingual Natural Language Inference) 작업에 미얀마어를 추가한 myXNLI 데이터셋을 구축하고, 다국어 언어 모델의 평가와 데이터 증강 기법을 통해 성능 향상을 도모한 연구를 제시합니다. 커뮤니티 기반 크라우드소싱과 전문가 검증을 통해 myXNLI 데이터셋을 구축하고, 이를 이용하여 다국어 모델 평가와 데이터 증강 효과를 분석하였습니다. 데이터 증강 기법은 미얀마어뿐 아니라 다른 언어의 성능도 향상시키는 효과를 보였으며, 다른 저자원 언어로의 일반화 가능성도 조사했습니다.