Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Agent-R: Training Language Model Agents to Reflect via Iterative Self-Training

Created by
  • Haebom
Category
Empty

저자

Siyu Yuan, Zehui Chen, Zhiheng Xi, Junjie Ye, Zhengyin Du, Jiecao Chen

개요

본 논문에서는 상호작용 환경에서 복잡한 작업을 해결하는 데 점점 중요해지는 대규모 언어 모델(LLM) 에이전트에 대해 다룹니다. 기존 연구는 주로 강력한 전문가로부터의 행동 복제를 통해 성능을 향상시키는 데 초점을 맞추었지만, 이러한 접근 방식은 오류로부터 복구할 수 없기 때문에 실제 응용 프로그램에서 종종 실패합니다. 본 논문은 에이전트가 실시간으로 반성할 수 있도록 하는 반복적인 자기 훈련 프레임워크인 Agent-R을 제안합니다. Agent-R은 정확성에 따라 행동에 보상하거나 벌칙을 부과하는 기존 방법과 달리, MCTS(Monte Carlo Tree Search)를 활용하여 잘못된 경로에서 올바른 경로를 복구하는 훈련 데이터를 구성합니다. Agent-R은 실패한 경로에서 첫 번째 오류 단계를 식별하고, 이를 트리에서 같은 부모 노드를 공유하는 인접한 정답 경로와 연결하는 모델 안내 비평 구성 메커니즘을 도입하여 시기 적절한 수정을 가능하게 합니다. 또한, 오류 수정 기능과 데이터셋 구성의 반복적인 개선을 통해 이러한 자기 개선 패러다임의 확장성을 조사합니다. 실험 결과, Agent-R이 에이전트가 오류를 수정하고 루프를 피하도록 효과적으로 장착하여 기준 방법보다 성능이 우수함을 보여줍니다(+5.59%).

시사점, 한계점

시사점:
에이전트의 실시간 자기 반성을 통해 오류 복구 능력을 향상시키는 새로운 프레임워크 Agent-R 제시.
MCTS 기반의 훈련 데이터 구성으로 효율적인 학습 달성.
모델 안내 비평 구성 메커니즘을 통해 시기 적절한 오류 수정 가능.
반복적인 개선을 통해 오류 수정 기능 및 데이터셋 구성 향상.
기존 방법 대비 우수한 성능(+5.59%)을 달성.
한계점:
제안된 방법의 확장성에 대한 추가적인 연구가 필요.
다양한 상호작용 환경에서의 일반화 성능 평가 필요.
MCTS의 계산 비용 및 복잡도에 대한 고려 필요.
Agent-R의 성능 향상이 특정 환경에 국한될 가능성.
👍