본 논문은 대규모 언어 모델(LLM)의 도구 학습 능력을 향상시키는 새로운 상호작용적 명확화 프레임워크인 AskToAct를 제시합니다. 기존 접근 방식의 한계점인 수동 데이터셋 의존 및 다중 턴 명확화 과정 중 오류 수정 메커니즘 부재를 해결하기 위해, 질의와 도구 호출 솔루션 간의 구조적 매핑을 활용합니다. 도구 매개변수를 명시적 사용자 의도로 간주하고, 매개변수를 제거하여 자동으로 고품질 학습 데이터를 생성하며, 선택적 마스킹 메커니즘을 이용한 오류 수정 데이터를 추가 학습하여 모델의 강건성을 높입니다. 실험 결과, AskToAct는 기존 방법보다 우수한 성능을 보이며, 중요한 미지정 의도를 79% 이상의 정확도로 복구하고, 도구 호출 정확도를 유지하면서 명확화 효율성을 평균 48.34% 향상시킵니다. 또한, 다양한 복잡도 수준에서 강건한 성능을 보이며, 추가 학습 없이 완전히 새로운 API에도 GPT-4에 필적하는 성능을 보입니다.