본 논문은 대규모 언어 모델(LLM) 기반 에이전트의 문제 해결 과정, 즉 작업 완료로 이어지는 에이전트의 상호 작용 경로를 최적화하는 Self-Evolution(SE) 프레임워크인 SE-Agent를 제안합니다. 기존의 MCTS와 같은 접근 방식은 다양한 경로 간의 상호 의존성을 무시하고 탐색 공간의 다양성이 부족하여 중복된 추론과 최적이 아닌 결과를 초래합니다. SE-Agent는 이전 경로를 수정, 재조합, 개선하는 세 가지 주요 연산을 통해 이전 경로를 재검토하고 향상시켜 탐색 공간을 확장하고 최적이 아닌 추론 경로의 영향을 완화합니다. SWE-bench Verified에서 실제 GitHub 이슈 해결을 통해 평가한 결과, 다섯 가지 강력한 LLM에서 최대 55%의 상대적 성능 향상을 달성하여 오픈소스 에이전트 중 최첨단 성능을 보였습니다.
시사점, 한계점
•
시사점:
◦
LLM 기반 에이전트의 문제 해결 과정을 효과적으로 최적화하는 새로운 프레임워크 SE-Agent 제시.
◦
기존 MCTS의 한계를 극복하고 다양한 솔루션 경로를 탐색하여 성능 향상.
◦
경로 간 상호 작용을 통해 효율적인 성능 향상 및 최적이 아닌 추론 경로의 영향 완화.
◦
실제 GitHub 이슈 해결을 통한 실용적인 성능 검증 및 최첨단 성능 달성.
◦
오픈소스로 공개되어 접근성 및 재현성 확보.
•
한계점:
◦
SE-Agent의 성능 향상이 특정 데이터셋(SWE-bench Verified)에 국한될 가능성.
◦
다른 유형의 문제 또는 더 복잡한 작업에 대한 일반화 성능에 대한 추가 연구 필요.
◦
세 가지 주요 연산(수정, 재조합, 개선)의 구체적인 알고리즘 및 매개변수 설정에 대한 자세한 설명 부족 가능성.