Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

MCP Safety Audit: LLMs with the Model Context Protocol Allow Major Security Exploits

Created by
  • Haebom

저자

Brandon Radosevich, John Halloran

개요

Model Context Protocol (MCP)은 생성형 AI 애플리케이션 구성 요소 간의 원활한 통합을 위해 API 호출을 표준화하는 오픈 프로토콜이다. 본 논문은 MCP의 보안 취약성을 다룬다. 산업 선도적인 LLMs가 악의적인 코드 실행, 원격 접근 제어, 자격 증명 절취 등의 공격을 통해 AI 개발자의 시스템을 손상시키도록 유도될 수 있음을 보여준다. 이러한 문제를 해결하기 위해, 본 논문에서는 MCP 서버의 보안을 평가하는 에이전트 기반 도구인 MCPSafetyScanner를 제시한다. MCPSafetyScanner는 MCP 서버의 도구와 리소스를 고려하여 적대적 샘플을 자동으로 결정하고, 관련 취약성 및 수정 방안을 검색하며, 모든 결과를 상세히 설명하는 보안 보고서를 생성한다.

시사점, 한계점

시사점:
MCP 기반의 생성형 AI 애플리케이션의 보안 취약성을 최초로 규명하고, 그 심각성을 강조한다.
MCP 서버의 보안을 사전에 평가하고 취약성을 해결하는 데 사용할 수 있는 MCPSafetyScanner라는 실용적인 도구를 제공한다.
일반적인 에이전트 기반 워크플로우의 보안 위험에 대한 인식을 높인다.
한계점:
MCPSafetyScanner의 완벽한 보안성과 모든 유형의 공격에 대한 탐지 능력을 보장할 수 없다.
새로운 공격 기법이나 MCP의 진화에 따라 MCPSafetyScanner의 업데이트가 지속적으로 필요하다.
MCPSafetyScanner의 성능 및 효율성에 대한 추가적인 평가가 필요하다.
👍