Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

AraLingBench A Human-Annotated Benchmark for Evaluating Arabic Linguistic Capabilities of Large Language Models

Created by
  • Haebom
Category
Empty

저자

Mohammad Zbib, Hasan Abed Al Kader Hammoud, Sina Mukalled, Nadine Rizk, Fatima Karnib, Issam Lakkis, Ammar Mohanna, Bernard Ghanem

개요

본 논문은 대규모 언어 모델(LLM)의 아랍어 언어 능력을 평가하기 위한 완전 수동 주석 처리된 벤치마크인 AraLingBench를 제시합니다. 이 벤치마크는 문법, 형태론, 철자법, 독해, 구문론 등 5가지 핵심 범주에 걸쳐 있으며, 구조적 언어 이해를 직접 평가하는 150개의 전문가가 설계한 객관식 문제로 구성됩니다. 35개의 아랍어 및 이중 언어 LLM을 평가한 결과, 현재 모델은 표면적 수준의 숙련도는 뛰어나지만, 더 깊이 있는 문법 및 구문적 추론에는 어려움을 겪는 것으로 나타났습니다. AraLingBench는 지식 기반 벤치마크에서 높은 점수를 획득하는 것과 진정한 언어적 숙달 사이의 지속적인 격차를 강조하며, 많은 모델이 진정한 이해보다는 암기 또는 패턴 인식을 통해 성공함을 보여줍니다. AraLingBench는 기본적인 언어 능력을 격리하고 측정함으로써 아랍어 LLM 개발을 위한 진단 프레임워크를 제공합니다.

시사점, 한계점

시사점:
AraLingBench는 아랍어 LLM의 언어적 이해 능력을 평가하기 위한 벤치마크를 제공합니다.
LLM의 표면적 수준 숙련도와 깊이 있는 언어적 이해 사이의 격차를 보여줍니다.
아랍어 LLM 개발을 위한 진단적 프레임워크를 제공합니다.
한계점:
AraLingBench는 150개의 객관식 문제로 제한되어 있습니다.
모델의 언어 능력에 대한 완전한 평가를 제공하지 못할 수 있습니다.
벤치마크 결과가 모델의 일반화 능력에 미치는 영향에 대한 추가 연구가 필요합니다.
👍