대규모 언어 모델(LLM)의 도구 사용 능력은 최신 외부 정보에 접근하고 복잡한 작업을 처리할 수 있게 합니다. 현재 이 능력을 향상시키는 접근 방식은 주로 데이터 합성을 통해 고급 모델을 증류하는 데 의존합니다. 그러나 이 방법은 고급 모델 사용과 관련된 상당한 비용이 발생하고, 고급 모델과 대상 모델 간의 지식 범위 차이가 커서 데이터 호환성 문제가 발생하는 경우가 많습니다. 이러한 문제를 해결하기 위해, 본 논문에서는 도구 학습을 위한 자기 개선 프레임워크인 ToolACE-DEV를 제안합니다. 먼저, 도구 학습 목표를 기본적인 도구 제작 및 도구 사용 능력을 향상시키는 하위 작업으로 분해합니다. 그런 다음, 경량 모델이 자체적으로 개선될 수 있도록 하는 자기 진화 패러다임을 도입하여 고급 LLM에 대한 의존성을 줄입니다. 광범위한 실험을 통해 다양한 규모와 아키텍처의 모델에서 우리 접근 방식의 효과를 검증합니다.
시사점, 한계점
•
시사점:
◦
고급 모델에 대한 의존성을 줄이는 자기 개선 프레임워크를 제시하여 도구 학습 비용을 절감할 수 있습니다.
◦
데이터 호환성 문제를 완화하여 다양한 모델에 적용 가능성을 높입니다.
◦
경량 모델의 도구 사용 능력 향상을 통해 효율적인 도구 학습이 가능합니다.
•
한계점:
◦
ToolACE-DEV 프레임워크의 일반화 성능 및 다양한 도구 유형에 대한 적용성에 대한 추가 연구가 필요합니다.