यह शोधपत्र SEALGuard प्रस्तुत करता है, जो एक बहुभाषी सुरक्षा उपाय है जिसका उद्देश्य बहुभाषी परिवेशों में बड़े पैमाने के भाषा मॉडल (LLM) की सुरक्षा में सुधार करना है। मौजूदा सुरक्षा उपाय, LlamaGuard, अंग्रेजी में लिखे गए असुरक्षित इनपुट के लिए उच्च पहचान सटीकता रखता है, लेकिन यह बहुभाषी इनपुट के प्रति संवेदनशील है। इस समस्या का समाधान करने के लिए, हमने SEALSBench का निर्माण किया, जो एक बड़े पैमाने का बहुभाषी सुरक्षा-संरेखित डेटासेट है जिसमें 10 भाषाओं को कवर करने वाले 260,000 से अधिक प्रॉम्प्ट शामिल हैं, और SEALGuard विकसित किया, जो निम्न-स्तरीय अनुकूलन (LoRA) का उपयोग करके एक सामान्य बहुभाषी भाषा मॉडल को बहुभाषी सुरक्षा उपाय के अनुकूल बनाता है। प्रायोगिक परिणाम दर्शाते हैं कि SEALGuard बहुभाषी असुरक्षित प्रॉम्प्ट और जेलब्रेक प्रॉम्प्ट का पता लगाने में LlamaGuard से बेहतर प्रदर्शन करता है, और DSR, परिशुद्धता और F1 स्कोर में सर्वश्रेष्ठ प्रदर्शन प्राप्त करता है। इसके अतिरिक्त, हम एब्लेशन अध्ययनों के माध्यम से SEALGuard के प्रदर्शन पर अनुकूलन रणनीति और मॉडल आकार के प्रभाव का विश्लेषण करते हैं। अंत में, हम आगे के शोध का समर्थन करने के लिए पूर्व-प्रशिक्षित मॉडल और बेंचमार्क जारी करते हैं।