Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Structured Agent Distillation for Large Language Model

Created by
  • Haebom

저자

Jun Liu, Zhenglun Kong, Peiyan Dong, Changdi Yang, Tianqi Li, Hao Tang, Geng Yuan, Wei Niu, Wenbin Zhang, Pu Zhao, Xue Lin, Dong Huang, Yanzhi Wang

개요

본 논문은 ReAct 프레임워크처럼 추론과 행동을 교차적으로 수행하는 의사결정 에이전트로서의 강력한 능력을 보이는 대규모 언어 모델(LLM)의 높은 추론 비용과 큰 모델 크기 문제를 해결하기 위해, 구조화된 에이전트 증류(Structured Agent Distillation) 프레임워크를 제안합니다. 기존 토큰 단위 증류와 달리, 궤적을 {[REASON]} 및 {[ACT]} 구간으로 나누고, 각 구성 요소를 교사 모델의 행동과 정렬시키기 위해 구간별 손실을 적용합니다. 이 구조 인식 감독을 통해 소형 에이전트가 교사 모델의 의사 결정 과정을 더 잘 복제할 수 있습니다. ALFWorld, HotPotQA-ReAct, WebShop에 대한 실험 결과, 제안된 방법이 토큰 수준 및 모방 학습 기준 모델을 꾸준히 능가하며, 성능 저하를 최소화하면서 상당한 압축을 달성함을 보여줍니다. 확장 및 제거 실험은 효율적이고 배포 가능한 에이전트를 위한 구간 수준 정렬의 중요성을 더욱 강조합니다.

시사점, 한계점

시사점:
대규모 언어 모델 기반 에이전트의 효율적인 압축 방법을 제시합니다.
구조화된 증류를 통해 LLM 에이전트의 성능 저하 없이 모델 크기를 줄일 수 있음을 보여줍니다.
구간별 손실 함수의 효과를 실험적으로 검증합니다.
효율적이고 배포 가능한 LLM 기반 에이전트 개발에 기여합니다.
한계점:
제안된 방법의 일반성에 대한 추가적인 연구가 필요합니다. (다양한 LLM 및 작업에 대한 확장성 검증)
특정한 작업 및 데이터셋에 대한 결과이므로, 다른 환경에서의 성능을 평가해야 합니다.
{[REASON]} 및 {[ACT]} 구간의 분할 기준에 대한 추가적인 고찰이 필요할 수 있습니다.
👍