Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

JuStRank: Benchmarking LLM Judges for System Ranking

Created by
  • Haebom

저자

Ariel Gera, Odellia Boni, Yotam Perlitz, Roy Bar-Haim, Lilach Eden, Asaf Yehudai

개요

본 논문은 생성형 AI 모델의 급속한 발전에 따라 다양한 모델과 설정 간의 체계적인 비교 및 선택의 필요성을 강조하며, 대규모 언어 모델(LLM) 기반 평가자를 활용하는 방법을 제안합니다. 기존 연구는 개별 응답이나 응답 쌍을 기반으로 LLM 평가자를 평가했지만, 시스템 수준의 순위에 영향을 미치는 요소(특정 시스템에 대한 평가자의 긍정적 또는 부정적 편향 등)를 간과했습니다. 본 논문은 LLM 평가자를 시스템 순위 매기는 도구로 활용하는 최초의 대규모 연구를 수행하여, 여러 시스템 출력에 대한 판단 점수를 집계하여 시스템 점수를 생성하고, 생성된 시스템 순위를 인간 기반 순위와 비교하여 평가자의 질을 평가합니다. 전반적인 평가자 평가 외에도, 결정력과 편향성을 포함한 평가자 행동에 대한 세분화된 특성 분석을 제공합니다.

시사점, 한계점

시사점:
LLM 기반 평가자를 활용한 시스템 수준의 생성형 AI 모델 비교 및 순위 매기기 방법 제시.
LLM 평가자의 결정력과 편향성 등의 행동 특성에 대한 세분화된 분석 제공.
인간 기반 순위와의 비교를 통해 LLM 평가자의 신뢰성 평가 기준 제시.
한계점:
본 연구에서 사용된 인간 기반 순위의 정확성 및 대표성에 대한 검토 필요.
LLM 평가자의 편향성을 완전히 제거하거나 보정하는 방법에 대한 추가 연구 필요.
다양한 유형의 생성형 AI 모델 및 평가 과제에 대한 일반화 가능성 검토 필요.
👍