Zhixun Chen, Ming Li, Yuxuan Huang, Yali Du, Meng Fang, Tianyi Zhou
개요
본 논문은 대규모 언어 모델(LLM) 에이전트의 다중 도메인 작업에서의 일반화 능력 향상을 위한 새로운 방법인 ATLaS를 제안합니다. 기존의 에이전트 튜닝 방법은 전체 전문가 경로에 대한 지도 학습 미세 조정을 사용하지만, 이는 전문가 편향을 도입하고 전문가 데이터에 포함되지 않은 상태로의 일반화를 약화시킬 수 있습니다. ATLaS는 전문가 경로에서 중요한 단계를 식별하고 이러한 단계에만 LLM을 미세 조정하여 비용을 절감하고 과적합 위험을 완화하며 다양한 환경과 작업에 대한 일반화를 촉진합니다. 실험 결과, ATLaS가 선택한 중요 단계의 30%만으로 미세 조정된 LLM이 전체 단계에 대해 미세 조정된 LLM 및 최신 오픈소스 LLM 에이전트를 능가하는 것으로 나타났습니다.