Multi-Agent Collaboration via Evolving Orchestration
Created by
Haebom
저자
Yufan Dang, Chen Qian, Xueheng Luo, Jingru Fan, Zihao Xie, Ruijie Shi, Weize Chen, Cheng Yang, Xiaoyin Che, Ye Tian, Xuantang Xiong, Lei Han, Zhiyuan Liu, Maosong Sun
개요
본 논문은 대규모 언어 모델(LLM) 기반의 다중 에이전트 협업을 위한 새로운 패러다임으로, 중앙 집중식 조정자("puppeteer")가 여러 에이전트("puppets")를 동적으로 제어하는 "puppeteer-style" 방식을 제안합니다. 기존의 정적 구조 기반의 다중 에이전트 협업 방식과 달리, 강화 학습을 통해 훈련된 조정자는 에이전트의 순서와 우선순위를 적응적으로 조절하여 유연하고 진화 가능한 집단 추론을 가능하게 합니다. 폐쇄형 및 개방형 도메인 시나리오에서 실험을 통해 기존 방식보다 향상된 성능과 감소된 계산 비용을 달성함을 보여주며, 조정자의 진화를 통해 더욱 간결하고 순환적인 추론 구조가 나타나는 것을 분석을 통해 확인합니다.
시사점, 한계점
•
시사점:
◦
LLM 기반 다중 에이전트 협업의 효율성 및 확장성을 향상시키는 새로운 접근 방식 제시.
◦
강화 학습 기반의 동적 조정을 통해 복잡한 문제 해결에 대한 적응력 강화.
◦
더욱 간결하고 효율적인 추론 구조를 통해 계산 비용 절감 및 성능 향상 달성.
◦
다양한 작업 환경(폐쇄형 및 개방형 도메인)에서의 성능 향상 확인.
•
한계점:
◦
현재 제시된 "puppeteer-style" 방식의 일반화 가능성에 대한 추가적인 연구 필요.