본 논문은 전 세계적으로 일상적인 문제 해결을 위한 필수 도구가 되어가는 대규모 언어 모델(LLM)에서 언어적 불평등을 연구합니다. 기존 연구는 LLM의 기존 지식 및 기능 전반의 불균형을 평가하는 정적 분석에 주로 초점을 맞추었지만, 본 논문은 지속적으로 발전하고 새로운 지식을 습득하여 최신의 도메인별 응답을 생성하는 LLM의 역동적인 과정 내의 언어적 불평등을 조사합니다. 본 연구는 두 가지 설정(컨텍스트 내 학습 및 미세 조정) 하에 독점 및 오픈 소스 모델을 사용하여 광범위한 실험을 통해 효과성, 전이성, 우선순위 및 강건성이라는 네 가지 주요 측면에서 저자원 언어가 일관되게 불리함을 보여줍니다. 이러한 불균형을 밝힘으로써 LLM의 새로운 지식 학습에서 언어적 불평등에 대한 인식을 높이고 보다 포괄적이고 공정한 미래의 LLM 개발을 촉진하는 것을 목표로 합니다.
시사점, 한계점
•
시사점: 저자원 언어가 LLM의 새로운 지식 학습에서 효과성, 전이성, 우선순위, 강건성 측면에서 일관되게 불리함을 밝힘으로써, LLM 개발에서의 언어적 불평등 문제에 대한 인식을 제고하고 더욱 공정하고 포괄적인 모델 개발의 필요성을 강조합니다.
•
한계점: 본 연구에서 사용된 특정 LLM 모델과 데이터셋의 제한으로 인해 일반화 가능성에 대한 추가 연구가 필요할 수 있습니다. 또한, 언어적 불평등을 해결하기 위한 구체적인 기술적 해결책 제시는 부족합니다. 다양한 저자원 언어와 도메인에 대한 추가 연구가 필요합니다.