Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Reward Inside the Model: A Lightweight Hidden-State Reward Model for LLM's Best-of-N sampling

Created by
  • Haebom

저자

Jizhou Guo, Zhaomin Wu, Philip S. Yu

개요

본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상에 필수적인 고품질 보상 모델을 효율적으로 학습하는 새로운 방법인 ELHSR(Efficient Linear Hidden State Reward) 모델을 제시합니다. 기존 보상 모델은 계산 비용이 높고 매개변수가 많아 실제 적용에 어려움이 있었지만, ELHSR은 LLM의 은닉 상태 정보를 활용하여 매개변수를 극적으로 줄이고(기존 모델 대비 0.005% 미만), 학습에 필요한 샘플 수도 적게 하면서 성능을 향상시킵니다. 또한, 기존 모델보다 훨씬 적은 시간과 연산량으로 높은 효율성을 달성하며, 로짓(logit)만으로도 학습이 가능하여 일부 폐쇄형 LLM에도 적용 가능합니다. 더 나아가 기존 보상 모델과 결합하여 성능을 더욱 향상시킬 수 있습니다.

시사점, 한계점

시사점:
LLM의 추론 능력 향상을 위한 효율적인 보상 모델을 제시.
기존 모델 대비 극적으로 감소된 매개변수와 학습 샘플 수로 높은 성능 달성.
계산 비용과 시간을 크게 절감.
로짓 기반 학습을 통해 폐쇄형 LLM에도 적용 가능성 확장.
기존 모델과의 결합을 통한 추가적인 성능 향상 가능성 제시.
한계점:
본 논문에서 제시된 ELHSR 모델의 성능 비교 대상이 명시적으로 언급되지 않아, 일반화된 성능 평가의 한계가 존재할 수 있음.
다양한 LLM 및 task에 대한 ELHSR의 일반화 성능에 대한 추가적인 연구가 필요함.
ELHSR 모델의 장기적인 안정성 및 견고성에 대한 추가적인 검증이 필요함.
👍