Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Divide-Then-Aggregate: An Efficient Tool Learning Method via Parallel Tool Invocation

Created by
  • Haebom

저자

Dongsheng Zhu, Weixian Shi, Zhengliang Shi, Zhaochun Ren, Shuaiqiang Wang, Lingyong Yan, Dawei Yin

개요

본 논문은 대규모 언어 모델(LLM)이 복잡한 실제 세계 과제를 수행하기 위해 도구 학습이 필요하다는 점을 지적하며, 기존의 단계별 도구 호출 방식(CoT/ReAct)의 한계점인 제한적인 지각 범위와 부족한 작업 계획 능력을 극복하고자 합니다. 이를 위해 기존의 Search-based Decision Tree (DFSDT)의 높은 계산 비용 문제를 해결하는 새로운 병렬 도구 호출 패러다임인 DTA-Llama (Divide-Then-Aggregate Llama)를 제시합니다. DTA-Llama는 트리 기반 도구 검색 경로를 DAG(Directed Acyclic Graph) 구조로 변환하여 고품질의 병렬 도구 호출 데이터셋을 생성하고, 이를 통해 현재 작업을 여러 개의 병렬 도구 호출 하위 작업으로 분할하고, 그 결과를 집계하여 다음 작업을 결정하는 것을 반복적으로 학습합니다. 또한, Process/Threads 메커니즘에서 영감을 얻은 효율적인 추론 프레임워크를 도입하여 실제 작업에 DTA-Llama를 적용합니다. 실험 결과, 제안된 방법은 작업 성능을 크게 향상시키는 동시에 토큰 소모량과 추론 시간을 줄이며, Llama2-7B를 사용한 본 연구의 결과는 GPT-3.5의 공식 병렬 함수 호출 방식과 비슷한 수준임을 보여줍니다. 관련 코드, 데이터셋 및 모델 가중치는 https://corn0205.github.io/ 에서 이용 가능합니다.

시사점, 한계점

시사점:
기존의 단계별 도구 호출 방식의 한계를 극복하는 새로운 병렬 도구 호출 패러다임 제시
DAG 구조를 활용하여 고품질의 병렬 도구 호출 데이터셋 생성 및 효율적인 학습 가능
Process/Threads 메커니즘 기반의 효율적인 추론 프레임워크 제시
작업 성능 향상과 동시에 토큰 소모량 및 추론 시간 감소
Llama2-7B를 이용한 실험 결과가 GPT-3.5의 공식 병렬 함수 호출 방식과 유사한 성능 달성
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 연구 필요
다양한 LLM 및 작업에 대한 확장성 검증 필요
DAG 구조 생성 및 최적화에 대한 추가적인 연구 필요
특정 작업에 대한 과도한 최적화 가능성
실제 복잡한 환경에서의 안정성 및 견고성에 대한 추가 검증 필요
👍