इस पत्र में, हम SEALGuard, एक बहुभाषी सुरक्षा उपाय, का प्रस्ताव करते हैं ताकि बहुभाषी समर्थन से रहित मौजूदा बड़े पैमाने के भाषा मॉडल (LLM) सुरक्षा उपायों (जैसे, LlamaGuard) की सीमाओं का समाधान किया जा सके। SEALGuard को SEALSBench का उपयोग करके विकसित किया गया है, जो एक बड़े पैमाने का बहुभाषी सुरक्षा संरेखित डेटासेट है जिसमें कम संसाधन वाली भाषाओं सहित 10 भाषाएँ शामिल हैं। निम्न-रैंक अनुकूलन (LoRA) तकनीक का उपयोग करते हुए, हम एक बहुभाषी सुरक्षा उपाय के रूप में एक सामान्य बहुभाषी भाषा मॉडल लागू करते हैं, और LlamaGuard के साथ तुलनात्मक मूल्यांकन के माध्यम से, हम पुष्टि करते हैं कि यह बहुभाषी दुर्भावनापूर्ण संकेतों और जेलब्रेक प्रयासों के विरुद्ध बेहतर प्रदर्शन करता है। विशेष रूप से, LlamaGuard के विपरीत, जो अंग्रेजी के अलावा अन्य भाषाओं के लिए दुर्भावनापूर्ण संकेतों और जेलब्रेक प्रयासों में खराब प्रदर्शन करता है (DSR में 9% और 18% की कमी), SEALGuard DSR, परिशुद्धता और F1-स्कोर (LlamaGuard की तुलना में DSR में 48% की वृद्धि) में बेहतर प्रदर्शन प्राप्त करता है। इसके अतिरिक्त, हम पृथक्करण अध्ययनों के माध्यम से अनुकूलन रणनीतियों और मॉडल आकार के प्रदर्शन योगदान का विश्लेषण करते हैं।