Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Agent RL Scaling Law: Agent RL with Spontaneous Code Execution for Mathematical Problem Solving

Created by
  • Haebom

저자

Xinji Mai, Haotian Xu, Xing W, Weinong Wang, Yingying Zhang, Wenqiang Zhang

개요

본 논문은 강화 학습(RL)을 통해 대규모 언어 모델(LLM)이 외부 도구(Python 코드 실행)를 자발적으로 활용하여 수학 문제 해결 능력을 향상시키는 방법을 연구합니다. 감독된 도구 사용 예시 없이, 결과 기반 보상으로부터 강화 학습을 하는 ZeroTIR 프레임워크를 제시하고, 훈련 단계 증가에 따라 자발적인 코드 실행 빈도, 응답 길이, 그리고 최종 정확도가 예측 가능하게 증가함을 보여줍니다. 이는 훈련에 투입된 계산 노력과 효과적인 도구 활용 추론 전략의 출현 사이에 정량적인 관계가 있음을 시사합니다. 실험 결과, ZeroTIR은 기존의 도구를 사용하지 않는 ZeroRL 기준 모델보다 수학 벤치마크에서 성능이 훨씬 뛰어남을 확인하였습니다. 본 연구는 에이전트 RL 내에서 자율적인 도구 사용이 습득되고 확장되는 방식에 대한 기본적인 이해를 제공하며, 향후 연구를 위한 재현 가능한 벤치마크를 제공합니다.

시사점, 한계점

시사점:
결과 기반 보상 강화 학습을 통해 LLM이 외부 도구(Python 코드)를 자발적으로 사용하여 수학적 추론 능력을 향상시킬 수 있음을 보여줌.
훈련 단계와 코드 실행 빈도, 응답 길이, 정확도 사이의 양의 상관관계를 정량적으로 규명.
도구 기반 추론 능력 향상을 위한 재현 가능한 벤치마크 및 프레임워크(ZeroTIR) 제공.
에이전트 RL에서 자율적인 도구 사용 습득 및 확장에 대한 기본적인 이해 제공.
한계점:
논문에서 구체적인 수학 벤치마크의 종류나 난이도에 대한 자세한 설명이 부족.
사용된 RL 알고리즘 및 프레임워크에 대한 상세한 설명이 부족.
다양한 유형의 수학 문제 또는 다른 도구에 대한 일반화 성능에 대한 추가 연구가 필요.
실제 세계 문제에 적용하기 위한 추가 연구가 필요.
👍