본 논문은 텍스트 분류 작업에 대한 현재 언어 모델의 성능을 평가하며, 특히 자원 부족 언어에 초점을 맞춥니다. 저자들은 BERT 유사 모델과 오픈 소스 및 클로즈 소스 대규모 언어 모델(LLM)을 비교하여 남슬라브어를 포함한 다양한 언어에서 세 가지 작업(의회 연설의 감성 분류, 뉴스 기사 및 의회 연설의 주제 분류, 웹 텍스트의 장르 식별)을 수행했습니다. 연구 결과에 따르면 LLM은 강력한 제로샷 성능을 보이며, 종종 미세 조정된 BERT 유사 모델과 동등하거나 능가했습니다. 또한, 제로샷 설정에서 LLM은 남슬라브어와 영어에서 유사한 성능을 보였습니다.