CMAT: A Multi-Agent Collaboration Tuning Framework for Enhancing Small Language Models
Created by
Haebom
저자
Xuechen Liang, Meiling Tao, Yinghui Xia, Tianyu Shi, Jun Wang, JingSong Yang
개요
본 논문은 대규모 언어 모델(LLM)의 효율성과 효과성을 향상시키는 새로운 접근법을 제시합니다. 인간의 개입에 대한 의존성을 줄이기 위해, 고품질 데이터셋으로 훈련된 TinyAgent 모델과 환경 피드백 기반의 적응적 가중치 업데이트를 통해 다중 지능형 에이전트 간의 협력 학습 및 실시간 적응을 가능하게 하는 Collaborative Multi-Agent Tuning (CMAT) 프레임워크를 소개합니다. CMAT 프레임워크는 다중 에이전트 시스템과 환경 피드백 메커니즘을 통합하여 협력적 행동을 탐색하는 확장 가능한 방법을 제공하며, 특히 TinyAgent-7B 모델은 GPT-3.5와 동등한 성능을 보이면서도 매개변수 수가 적다는 점에서 효율성 향상을 보여줍니다.
시사점, 한계점
•
시사점:
◦
LLM의 인간 의존도를 줄이는 새로운 방법 제시.
◦
CMAT 프레임워크를 통한 다중 에이전트 협업 학습 및 실시간 적응 가능성 증명.
◦
매개변수 수 감소에도 불구하고 GPT-3.5 수준의 성능 달성으로 LLM의 효율성 향상 가능성 제시.