Bài báo này trình bày SEALGuard, một biện pháp bảo vệ đa ngôn ngữ nhằm mục đích cải thiện tính an toàn của các mô hình ngôn ngữ quy mô lớn (LLM) trong môi trường đa ngôn ngữ. Biện pháp bảo vệ hiện có, LlamaGuard, có độ chính xác phát hiện cao đối với các đầu vào không an toàn được viết bằng tiếng Anh, nhưng có Limitations là dễ bị tổn thương trước các đầu vào đa ngôn ngữ. Để giải quyết vấn đề này, chúng tôi xây dựng SEALSBench, một tập dữ liệu đa ngôn ngữ được căn chỉnh an toàn quy mô lớn bao gồm hơn 260.000 lời nhắc bao gồm 10 ngôn ngữ và phát triển SEALGuard, điều chỉnh một mô hình ngôn ngữ đa ngôn ngữ chung thành một biện pháp bảo vệ đa ngôn ngữ bằng cách sử dụng điều chỉnh mức thấp (LoRA). Kết quả thử nghiệm cho thấy SEALGuard vượt trội hơn LlamaGuard trong việc phát hiện các lời nhắc không an toàn đa ngôn ngữ và lời nhắc bẻ khóa, và đạt hiệu suất tốt nhất về DSR, độ chính xác và điểm F1. Ngoài ra, chúng tôi phân tích tác động của chiến lược điều chỉnh và quy mô mô hình đến hiệu suất của SEALGuard thông qua các nghiên cứu cắt bỏ. Cuối cùng, chúng tôi phát hành các mô hình và điểm chuẩn được đào tạo trước để hỗ trợ các nghiên cứu sâu hơn.