Dans cet article, nous présentons un nouveau paradigme appelé « Détoxification interlinguistique » pour résoudre le problème de toxicité dans les modèles linguistiques à grande échelle (MLH) utilisés dans le monde entier. Nous explorons comment atténuer la toxicité dans des environnements multilingues couvrant plusieurs langues et systèmes d'écriture, et comment transférer les fonctions de détoxification entre langues riches et pauvres en ressources. Nous évaluons l'effet de réduction de la toxicité des paramètres de distribution interlinguistique dans des environnements à données limitées à l'aide de 392 paramètres extensifs, et analysons l'impact de l'atténuation de la toxicité sur les performances du modèle pour des tâches non toxiques (compromis entre sécurité et préservation des connaissances). Le code et les jeux de données sont accessibles au public.