본 논문은 대규모 언어 모델(LLM) 에이전트의 다중 도메인 작업 전반에 걸친 일반화 능력을 향상시키는 새로운 방법인 ATLaS를 제안합니다. 기존의 에이전트 튜닝 방법들은 전문가의 전체 경로에 대한 지도 학습 미세 조정을 사용하지만, 이는 전문가의 편향을 도입하고 전문가 데이터에 포함되지 않은 상태로의 일반화를 약화시킬 수 있습니다. ATLaS는 전문가 경로에서 중요 단계를 식별하고, 이러한 단계에만 LLM을 미세 조정하여 비용을 절감합니다. 중요 단계에 초점을 맞춤으로써 전체 경로의 과적합 위험을 줄이고 다양한 환경과 작업에서의 일반화를 촉진합니다. 실험 결과, ATLaS에 의해 선택된 30%의 중요 단계만으로 미세 조정된 LLM이 모든 단계에 대해 미세 조정된 LLM 및 최신 오픈소스 LLM 에이전트보다 성능이 우수함을 보여줍니다.