Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Language model developers should report train-test overlap

Created by
  • Haebom

저자

Andy K Zhang, Kevin Klyman, Yifan Mai, Yoav Levine, Yian Zhang, Rishi Bommasani, Percy Liang

개요

본 논문은 언어 모델 평가의 신뢰성을 높이기 위해 훈련 데이터와 테스트 데이터 간의 중복(train-test overlap) 문제를 다룬다. 현재 대부분의 언어 모델은 훈련 데이터 공개 없이 평가 결과만 공개하기 때문에, train-test overlap을 측정하기 어렵다는 점을 지적한다. 연구진은 30개 모델 개발자를 대상으로 설문조사를 실시하여 train-test overlap 관련 정보 공개 현황을 분석하고, 단 9개 개발자만이 관련 정보를 공개하고 있다는 사실을 밝혔다. 나아가, 언어 모델 개발자들이 공개 테스트 세트에 대한 평가 결과를 보고할 때 train-test overlap 통계 및/또는 훈련 데이터를 공개해야 한다고 주장한다.

시사점, 한계점

시사점:
언어 모델 평가의 신뢰성 확보를 위해 train-test overlap 정보 공개의 중요성을 강조한다.
현재 언어 모델 평가의 투명성 부족 문제를 드러낸다.
30개 모델 개발자에 대한 설문조사 결과를 통해 현황을 구체적으로 제시한다.
train-test overlap 정보 공개를 위한 개발자들의 자발적인 참여를 유도한다.
한계점:
설문조사 참여율이 낮아 일반화 가능성에 한계가 있을 수 있다.
train-test overlap 측정 및 공개에 대한 구체적인 방법론 제시가 부족하다.
30개의 모델 개발자만을 대상으로 하였으므로, 모든 언어 모델에 대한 일반화는 어렵다.
👍