Model Context Protocol (MCP)은 생성형 AI 애플리케이션 구성 요소 간의 원활한 통합을 위해 API 호출을 표준화하는 오픈 프로토콜이다. 본 논문은 MCP의 보안 취약성을 다룬다. 산업 선도적인 LLMs가 악의적인 코드 실행, 원격 접근 제어, 자격 증명 절취 등의 공격을 통해 AI 개발자의 시스템을 손상시키도록 유도될 수 있음을 보여준다. 이러한 문제를 해결하기 위해, 본 논문에서는 MCP 서버의 보안을 평가하는 에이전트 기반 도구인 MCPSafetyScanner를 제시한다. MCPSafetyScanner는 MCP 서버의 도구와 리소스를 고려하여 적대적 샘플을 자동으로 결정하고, 관련 취약성 및 수정 방안을 검색하며, 모든 결과를 상세히 설명하는 보안 보고서를 생성한다.