본 논문은 SemEval 2025 Task 11 Track A (28개 언어에 걸친 다중 레이블 감정 분류)에 대한 접근 방식을 제시합니다. 트랜스포머 모델의 완전 미세 조정과 분류기 전용 학습이라는 두 가지 주요 전략을 탐구하며, 미세 조정 전략, 모델 아키텍처, 손실 함수, 인코더, 분류기를 포함한 다양한 설정을 평가합니다. mE5 및 BGE 와 같은 프롬프트 기반 인코더 위에 분류기를 학습하는 것이 XLMR 및 mBERT를 완전히 미세 조정하는 것보다 훨씬 더 나은 결과를 산출한다는 것을 발견했습니다. 최종 리더보드에서 가장 성능이 좋은 모델은 여러 BGE 모델을 결합한 앙상블이며, CatBoost를 분류기로 사용하고 다양한 구성을 적용했습니다. 이 앙상블은 모든 언어에 걸쳐 평균 F1-macro 점수 56.58을 달성했습니다.