यह शोधपत्र बहुभाषी वृहद्-स्तरीय भाषा मॉडलों (LLM) की सुरक्षा में सुधार हेतु एक सरल और नवीन रणनीति, सोटेरिया का प्रस्ताव करता है। सोटेरिया का उद्देश्य प्रत्येक भाषा में हानिकारक सामग्री उत्पन्न करने के लिए सबसे अधिक ज़िम्मेदार "कार्यात्मक प्रमुखों" की पहचान करना और समग्र मॉडल प्रदर्शन को बनाए रखते हुए नीति उल्लंघनों को उल्लेखनीय रूप से कम करने हेतु समायोजनों को न्यूनतम करना है। हम XThreatBench प्रस्तुत करके सोटेरिया की प्रभावशीलता का गहन मूल्यांकन करते हैं, जो एक बहुभाषी डेटासेट है जो वास्तविक दुनिया के नीति दिशानिर्देशों से प्राप्त सूक्ष्म हानिकारक व्यवहारों को दर्शाता है। लामा, क्वेन और मिस्ट्रल सहित प्रमुख ओपन-सोर्स LLM के साथ किए गए प्रयोगों से पता चलता है कि सोटेरिया संसाधन-समृद्ध से लेकर संसाधन-विहीन तक, विभिन्न भाषाओं में सुरक्षा मानकों में लगातार सुधार करता है। यह वैश्विक रूप से मापनीय, भाषाई रूप से संरेखित और नैतिक रूप से संरेखित LLM की ओर एक आशाजनक मार्ग प्रदर्शित करता है।