यह शोधपत्र MCP-Guard, एक स्तरित सुरक्षा संरचना, का प्रस्ताव करता है जो बड़े पैमाने के भाषा मॉडल (LLM) को बाहरी उपकरणों के साथ एकीकृत करते समय उत्पन्न होने वाली सुरक्षा कमज़ोरियों (जैसे त्वरित इंजेक्शन और डेटा लीक) को दूर करने के लिए है। MCP-Guard, हल्के स्थैतिक स्कैनिंग, एक गहन तंत्रिका नेटवर्क डिटेक्टर और एक E5-आधारित फ़ाइन-ट्यून्ड मॉडल का उपयोग करते हुए, तीन-चरणीय पहचान पाइपलाइन के माध्यम से दक्षता और सटीकता को संतुलित करता है। अंत में, एक हल्का LLM मध्यस्थ अंतिम निर्णय लेता है और गलत सकारात्मक परिणामों को न्यूनतम करता है। इसके अलावा, हम MCP-AttackBench, एक व्यापक बेंचमार्क प्रस्तुत करते हैं जिसमें 70,000 से अधिक नमूने शामिल हैं जो विभिन्न प्रकार के वास्तविक-विश्व आक्रमण वेक्टरों का अनुकरण करते हैं।