본 논문은 대규모 언어 모델(LLM)이 Model Contextual Protocol (MCP) 생태계를 활용하는 능력을 향상시키기 위한 새로운 파이프라인인 MCP-Flow를 소개한다. MCP-Flow는 자동화된 웹 에이전트 기반 파이프라인으로, 대규모 서버 검색, 데이터 합성, 모델 학습을 수행한다. 1166개의 서버와 11536개의 도구에서 데이터를 수집 및 필터링하여 68733개의 고품질 명령어-함수 호출 쌍과 6439개의 궤적을 생성한다. 실험 결과는 MCP-Flow가 MCP 도구 선택, 함수 호출 생성 및 에이전트 작업 성능을 향상시키는 데 효과적임을 보여준다.
시사점, 한계점
•
시사점:
◦
대규모 MCP 환경에서 LLM 에이전트의 능력을 향상시키는 확장 가능한 기반을 제공한다.
◦
기존 연구보다 훨씬 많은 서버와 도구를 활용하여 규모와 다양성을 크게 향상시켰다.
◦
MCP 도구 선택, 함수 호출 생성, 에이전트 작업 성능을 향상시키는 데 효과적임을 입증했다.