본 논문은 AI 에이전트를 데이터 소스와 외부 도구에 연결하는 보편적인 오픈 표준인 Model Context Protocol (MCP)을 통해 대규모 언어 모델(LLM)이 실제 응용 프로그램에 통합됨에 따라 발생하는 보안 위험에 대한 연구를 제시합니다. MCP는 LLM 기반 에이전트의 기능을 향상시키지만, 새로운 보안 위험과 공격 범위를 확장합니다. 이 논문에서는 MCP 보안에 대한 최초의 체계적인 분류를 제시하고, 4가지 주요 공격 표면에서 17가지 공격 유형을 식별합니다. 또한, 프롬프트 데이터 세트, MCP 서버, MCP 클라이언트, 공격 스크립트 및 보호 메커니즘을 통합하여 세 가지 주요 MCP 제공 업체에서 이러한 공격을 평가하는 포괄적인 보안 벤치마크 및 플레이그라운드인 MCPSecBench를 소개합니다. 실험 결과에 따르면 식별된 공격의 85% 이상이 최소 하나의 플랫폼을 성공적으로 손상시키며, 현재 보호 메커니즘은 이러한 공격에 거의 효과가 없습니다.