Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Agent RL Scaling Law: Agent RL with Spontaneous Code Execution for Mathematical Problem Solving

Created by
  • Haebom

저자

Xinji Mai, Haotian Xu, Xing W, Weinong Wang, Jian Hu, Yingying Zhang, Wenqiang Zhang

개요

본 논문은 강화 학습(RL)을 통해 대규모 언어 모델(LLM)이 외부 도구(Python 코드 실행)를 자발적으로 활용하여 수학 문제 해결 능력을 향상시키는 ZeroTIR(Zero-shot Tool-Integrated Reasoning) 방법론을 제시합니다. 감독된 도구 사용 예시 없이, 결과 기반 보상으로 RL을 적용하여 LLM이 Python 코드를 생성하고 실행하도록 학습시키는 것이 핵심입니다. 실험 결과, RL 훈련 단계 증가에 따라 자발적인 코드 실행 빈도, 응답 길이, 최종 정확도가 모두 증가하는 양의 상관관계를 확인하여 훈련 노력과 효과적인 도구 활용 전략 습득 간의 정량적 관계를 제시합니다. 표준 RL 알고리즘 및 프레임워크를 사용하여 강건한 프레임워크를 구현하고, 기존 방법보다 우수한 성능을 입증합니다.

시사점, 한계점

시사점:
결과 기반 보상 RL을 통해 LLM이 외부 도구를 자발적으로 활용하는 능력을 효과적으로 학습시킬 수 있음을 보여줍니다.
훈련 단계와 성능 향상 간의 정량적 관계를 규명하여 향후 연구를 위한 기준을 제시합니다.
제시된 ZeroTIR 방법론은 어려운 수학 문제 해결에 있어 기존 방법보다 우수한 성능을 보입니다.
재현 가능한 연구 환경과 코드를 공개하여 후속 연구를 지원합니다.
한계점:
현재 Python 코드 실행에 국한되어 다른 유형의 도구 활용으로의 확장성에 대한 추가 연구가 필요합니다.
사용된 수학 문제 벤치마크의 범위가 제한적일 수 있으며, 더욱 다양한 문제 유형에 대한 성능 평가가 필요합니다.
RL 훈련에 필요한 계산 비용이 상당할 수 있으며, 효율적인 훈련 방법에 대한 추가 연구가 필요합니다.
👍