Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Rubrics as Rewards: Reinforcement Learning Beyond Verifiable Domains

Created by
  • Haebom

저자

Anisha Gunjal, Anthony Wang, Elaine Lau, Vaskar Nath, Bing Liu, Sean Hendryx

개요

본 논문은 강화 학습(RL)을 실세계 과제에 적용할 때 객관적 및 주관적 평가 기준 간의 균형을 맞추는 것이 어려운 점을 다룹니다. 특히, 명확한 기준 진실이 부족한 과제에서는 사후 훈련 언어 모델에 대한 신뢰할 수 있는 보상 신호를 정의하기 어렵습니다. 기존의 선호도 기반 방법은 해결책을 제시하지만, 해석이 어렵고 허위 상관 관계에 취약한 불투명한 보상 함수에 의존합니다. 본 논문에서는 구조화된 체크리스트 스타일의 평가 기준(rubrics)을 해석 가능한 보상 신호로 사용하는 $\textbf{Rubrics as Rewards}$ (RaR) 프레임워크를 제시합니다. GRPO를 사용한 온-폴리시 훈련에 적용되며, HealthBench-1k에서 기존의 단순한 Likert 기반 접근 방식에 비해 최대 28%의 상대적 성능 향상을 보였고, 전문가가 작성한 참고 자료에서 파생된 보상 신호와 동등하거나 우수한 성능을 달성했습니다. RaR은 평가 기준을 구조화된 보상 신호로 처리함으로써, 소규모 판단 모델이 인간의 선호도와 더 잘 일치하고 모델 규모에 걸쳐 견고한 성능을 유지하도록 합니다.

시사점, 한계점

시사점:
구조화된 평가 기준을 사용하여 해석 가능하고 신뢰할 수 있는 보상 신호를 생성하는 새로운 방법을 제시.
기존 선호도 기반 방법보다 향상된 성능을 보임 (HealthBench-1k에서 최대 28% 향상).
전문가 의견에 기반한 보상 신호와 비교하여 동등하거나 우수한 성능 달성.
소규모 판단 모델의 성능 향상 및 모델 규모에 대한 견고성 확보.
한계점:
제시된 방법의 일반화 성능에 대한 추가적인 연구가 필요.
다양한 실세계 과제에 대한 적용성 검증이 필요.
평가 기준의 설계 및 구성에 대한 지침이 추가적으로 필요할 수 있음.
특정 데이터셋(HealthBench-1k)에 대한 결과이며, 다른 데이터셋에서의 성능은 추가 검증 필요.
👍