대규모 언어 모델(LLM)을 에이전트 오케스트레이터로 배포하는 것은 작업 자동화에 혁명을 일으켰지만, 프라이버시를 보존하고 비용 효율적인 솔루션에 대한 요구로 인해 온디바이스 추론 기능이 필요하게 되었다. 그러나 로컬 LLM은 도구 호출 시나리오에서 최첨단 모델보다 지속적으로 성능이 떨어지며, 대규모 도구 세트에서 도구를 선택하고 복잡한 매개변수 구조에 대한 정확한 인수를 생성하는 데 어려움을 겪는다. 본 연구에서는 도구 호출 작업을 도구 선택과 인수 생성의 두 가지 하위 작업으로 분리하는 방법론을 소개한다. "분리된 미세 조정"을 제안하며, 이는 LoRA 미세 조정을 활용하여 각 하위 작업에 대한 별도의 손실 마스킹을 사용하여 도구 선택 및 도구별 인수 생성을 위한 전용 LoRA 어댑터를 생성하는 새로운 사후 훈련 방식이다. 또한, 분리된 미세 조정을 사용하여 생성된 LoRA 어댑터를 활용하여 최종 사용자 장치에서 로컬 모델을 사용하여 효율적인 에이전트 오케스트레이션을 수행하는 추론 프레임워크인 DualTune을 제시한다. DualTune은 도구 호출 생성 단계를 도구 선택과 인수 생성으로 분해하고, 해당 LoRA 어댑터를 동적으로 로드하여 도구 호출을 생성한다. 또한, DualTune은 계층적 오케스트레이션을 구현하여 도구 선택에 필요한 도구 수를 제한한다. MCP-Bench 벤치마크에 대한 실험을 통해 분리된 미세 조정을 사용하여 훈련된 Qwen-2.5-7B 모델이 기본 모델의 도구 호출 정확도를 46% 향상시켰으며, 모든 경우에서 다른 로컬 추론, 비추론 및 유사한 크기의 미세 조정 모델보다 우수한 성능을 보였고, 대부분의 경우 2배 더 큰 모델보다 우수한 성능을 보였다.