Sign In

Uncovering inequalities in new knowledge learning by large language models across different languages

Created by
  • Haebom
Category
Empty

저자

Chenglong Wang, Haoyu Tang, Xiyuan Yang, Yueqi Xie, Jina Suh, Sunayana Sitaram, Junming Huang, Yu Xie, Zhaoya Gong, Xing Xie, Fangzhao Wu

개요

본 논문은 전 세계적으로 일상적인 문제 해결을 위한 필수 도구가 되어가는 대규모 언어 모델(LLM)에서 언어적 불평등을 연구합니다. 기존 연구는 LLM의 기존 지식 및 기능 전반의 불균형을 평가하는 정적 분석에 주로 초점을 맞추었지만, 본 논문은 지속적으로 발전하고 새로운 지식을 습득하여 최신의 도메인별 응답을 생성하는 LLM의 역동적인 과정 내의 언어적 불평등을 조사합니다. 본 연구는 두 가지 설정(컨텍스트 내 학습 및 미세 조정) 하에 독점 및 오픈 소스 모델을 사용하여 광범위한 실험을 통해 효과성, 전이성, 우선순위 및 강건성이라는 네 가지 주요 측면에서 저자원 언어가 일관되게 불리함을 보여줍니다. 이러한 불균형을 밝힘으로써 LLM의 새로운 지식 학습에서 언어적 불평등에 대한 인식을 높이고 보다 포괄적이고 공정한 미래의 LLM 개발을 촉진하는 것을 목표로 합니다.

시사점, 한계점

시사점: 저자원 언어가 LLM의 새로운 지식 학습에서 효과성, 전이성, 우선순위, 강건성 측면에서 일관되게 불리함을 밝힘으로써, LLM 개발에서의 언어적 불평등 문제에 대한 인식을 제고하고 더욱 공정하고 포괄적인 모델 개발의 필요성을 강조합니다.
한계점: 본 연구에서 사용된 특정 LLM 모델과 데이터셋의 제한으로 인해 일반화 가능성에 대한 추가 연구가 필요할 수 있습니다. 또한, 언어적 불평등을 해결하기 위한 구체적인 기술적 해결책 제시는 부족합니다. 다양한 저자원 언어와 도메인에 대한 추가 연구가 필요합니다.
👍