Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Self-Guided Process Reward Optimization with Masked Step Advantage for Process Reinforcement Learning

Created by
  • Haebom

저자

Wu Fei, Hao Kong, Shuxian Liang, Yang Lin, Yibo Yang, Jing Tang, Lei Chen, Xiansheng Hua

개요

본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 위한 프로세스 강화 학습(PRL)의 잠재력을 활용하면서도, 추가적인 프로세스 보상 모델 도입으로 인한 높은 계산 비용 문제를 해결하는 새로운 프레임워크인 자기 지도 프로세스 보상 최적화(SPRO)를 제안합니다. SPRO는 프로세스 보상을 정책 모델 자체에서 내재적으로 도출할 수 있음을 이론적으로 증명하고, 잘 정의된 누적 프로세스 보상과 마스크 단계 이점(MSA)을 도입하여 공유 프롬프트 샘플링 그룹 내에서 엄격한 단계별 행동 이점 추정을 가능하게 합니다. 실험 결과, SPRO는 기존 GRPO보다 3.4배 높은 훈련 효율과 17.5% 향상된 테스트 정확도를 보였으며, 안정적인 정책 엔트로피 유지와 응답 길이 감소 효과를 통해 충분한 탐색과 보상 해킹 방지를 확인했습니다. 특히, SPRO는 GRPO와 같은 결과 감독 강화 학습 방법과 비교하여 추가적인 계산 비용이 발생하지 않아 산업적 구현에 유리합니다.

시사점, 한계점

시사점:
프로세스 보상을 정책 모델 자체에서 추출하여 추가적인 계산 비용 없이 프로세스 강화 학습을 가능하게 함.
MSA를 통해 엄격한 단계별 행동 이점 추정을 가능하게 하여 훈련 효율 및 정확도 향상.
안정적인 정책 엔트로피 유지 및 응답 길이 감소를 통해 충분한 탐색과 보상 해킹 방지.
GRPO 등 기존 방법 대비 3.4배 높은 훈련 효율과 17.5% 향상된 테스트 정확도 달성.
산업적 구현에 적합한 계산 비용 효율성.
한계점:
본 논문에서 제시된 이론 및 실험 결과의 일반화 가능성에 대한 추가 연구 필요.
다양한 LLM 및 작업에 대한 SPRO의 성능 평가가 추가적으로 필요.
MSA의 설계 및 파라미터 조정에 대한 더욱 상세한 분석 필요.
👍