Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

AgentFlux: Decoupled Fine-Tuning & Inference for On-Device Agentic Systems

Created by
  • Haebom
Category
Empty

저자

Rohan Kadekodi, Zhan Jin, Keisuke Kamahori, Yile Gu, Sean Khatiri, Noah H. Bayindirli, Sergey Gorbunov, Baris Kasikci

개요

본 논문은 에이전트 오케스트레이션을 위한 대규모 언어 모델(LLM)의 온디바이스 추론 능력 향상을 목표로 한다. 특히 도구 호출 시 발생하는 성능 저하 문제를 해결하기 위해, 도구 선택과 인자 생성을 분리하는 "decoupled fine-tuning" 방법을 제안한다. 또한, 생성된 LoRA 어댑터를 활용하여 효율적인 에이전트 오케스트레이션을 수행하는 AgentFlux 추론 프레임워크를 제시한다. 실험 결과, decoupled fine-tuning을 사용한 Qwen-2.5-7B 모델이 기존 모델 대비 46%의 성능 향상을 보였으며, 유사 크기 또는 더 큰 모델들을 능가하는 성능을 보였다.

시사점, 한계점

시사점:
온디바이스 환경에서 LLM의 도구 호출 성능을 향상시키는 새로운 fine-tuning 기법 제시.
도구 선택과 인자 생성을 분리하여 복잡한 도구 호출 문제를 효과적으로 해결.
LoRA 어댑터를 활용한 효율적인 추론 프레임워크 AgentFlux 개발.
실험을 통해 제안 방법의 우수성 입증 (MCP-Bench 벤치마크 기준).
한계점:
MCP-Bench 벤치마크 외 다른 벤치마크에 대한 성능 검증 필요.
다른 모델 아키텍처 및 도구 집합에 대한 일반화 가능성 추가 연구 필요.
AgentFlux 프레임워크의 확장성 및 실제 사용자 환경에서의 성능 검증 필요.
decoupled fine-tuning의 계산 비용 및 메모리 사용량 분석 필요.
👍