Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

PGPO: Enhancing Agent Reasoning via Pseudocode-style Planning Guided Preference Optimization

Created by
  • Haebom

저자

Zouying Cao, Runze Wang, Yifei Yang, Xinbei Ma, Xiaoyong Zhu, Bo Zheng, Hai Zhao

개요

본 논문은 복잡한 상호작용 문제 해결에 뛰어난 능력을 보이는 대규모 언어 모델(LLM) 에이전트에 대해 다룹니다. 기존 LLM 에이전트는 주로 자연어 계획을 생성하여 추론을 안내하지만, 이는 장황하고 비효율적이며 특정 작업에 맞춰져 유사한 작업 간 일반화 능력을 제한합니다. 본 논문에서는 추론의 구조적 논리를 포착하기 위해 의사 코드 스타일 계획(P-code Plan)을 탐구하고, 이를 통해 LLM 에이전트의 일반화 능력과 효율성이 향상됨을 발견했습니다. 이러한 발견에 착안하여, 효과적인 에이전트 학습을 위한 의사 코드 스타일 계획 유도 선호도 최적화 방법(PGPO)을 제안합니다. 두 가지 계획 지향적 보상을 사용하는 PGPO는 LLM 에이전트가 고품질 P-code Plan과 후속 추론을 생성하는 능력을 더욱 향상시킵니다. 실험 결과, PGPO는 대표적인 에이전트 벤치마크에서 우수한 성능을 달성하고 기존 최고 성능 기준을 능가하며, 추론 중 행동 오류 및 누락 감소에 대한 PGPO의 장점을 보여줍니다.

시사점, 한계점

시사점:
의사 코드 스타일 계획(P-code Plan)을 사용하여 LLM 에이전트의 일반화 능력과 효율성을 향상시킬 수 있음을 보여줌.
PGPO를 통해 LLM 에이전트의 고품질 계획 생성 및 추론 능력을 향상시킬 수 있음을 제시.
PGPO가 추론 중 행동 오류 및 누락을 감소시키는 데 효과적임을 실험적으로 증명.
기존 최고 성능 기준을 능가하는 성능을 달성.
한계점:
논문에서 제시된 PGPO의 성능 평가가 특정 벤치마크에 국한되어 일반화 가능성에 대한 추가 연구가 필요할 수 있음.
P-code Plan의 설계 및 생성 과정에 대한 상세한 설명이 부족할 수 있음. 다양한 유형의 문제에 대한 적용성 및 한계에 대한 추가 분석이 필요할 수 있음.
PGPO의 계산 비용 및 확장성에 대한 분석이 부족할 수 있음. 대규모 복잡한 문제에 대한 적용 가능성에 대한 추가 연구가 필요할 수 있음.
👍