Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Foundational Automatic Evaluators: Scaling Multi-Task Generative Evaluator Training for Reasoning-Centric Domains

Created by
  • Haebom
Category
Empty

저자

Austin Xu, Xuan-Phi Nguyen, Yilun Zhou, Chien-Sheng Wu, Caiming Xiong, Shafiq Joty

FARE: Foundational Automatic Reasoning Evaluators

개요

본 논문은 대규모 데이터 기반 개발에 초점을 맞춰, 5가지 평가 과제(pairwise, step-level, reference-free 및 reference-based verification, single rating)와 여러 추론 평가 도메인에 걸쳐 250만 개의 샘플로 구성된 데이터셋을 구축합니다. 이를 활용하여 8B 및 20B (3.6B active) 파라미터 크기의 FARE (Foundational Automatic Reasoning Evaluators)를 단순 반복 거부-샘플링 지도 학습 (SFT) 방식으로 훈련합니다. FARE-8B는 더 큰 RL 기반 평가자들과 경쟁하며, FARE-20B는 오픈 소스 평가자 분야에서 새로운 표준을 제시하며, 70B+ 전문 평가자를 능가합니다. FARE는 추론 시간 재정렬자로 사용되어 MATH에서 거의 오라클 수준의 성능을 달성하고, 강화 학습 훈련의 검증자로 사용되어 최대 14.1%의 성능 향상을 보입니다. 또한, FARE를 기반으로 지속적으로 미세 조정된 FARE-Code는 gpt-oss-20B보다 테스트 케이스 품질 평가에서 65% 더 나은 성능을 보입니다.

시사점, 한계점

대규모 데이터셋 구축 및 SFT를 통해 전문화된 평가자 훈련 가능성 제시
FARE-20B는 오픈 소스 평가자 분야의 새로운 기준을 제시
실제 사용 사례 (추론 시간 재정렬, RL 검증자, 코드 평가) 에서 FARE의 유용성 입증
구체적인 방법론 (반복 거부-샘플링 SFT) 외 다른 방법론에 대한 탐구 부족
8B 및 20B 모델 크기 외 다른 모델 크기에 대한 연구 부재
데이터셋의 특성 및 한계에 대한 명시적인 언급 부족 (예: 도메인, 태스크의 일반화 가능성)
👍