본 논문은 전 세계적으로 사용되는 대규모 언어 모델(LLM)의 독성 문제 해결을 위한 "교차 언어 해독(Cross-lingual Detoxification)"이라는 새로운 패러다임을 제시합니다. 다양한 언어와 문자 체계를 아우르는 다국어 환경에서 독성을 완화하고, 자원이 풍부한 언어와 부족한 언어 간에 해독 기능을 전이하는 방법을 탐구합니다. 392가지의 광범위한 설정을 통해 제한된 데이터를 가진 환경에서 교차 분포 설정의 독성 감소 효과를 평가하고, 독성 완화가 비독성 작업에 대한 모델 성능에 미치는 영향(안전성과 지식 보존 간의 상충 관계)을 분석합니다. 코드와 데이터셋은 공개적으로 제공됩니다.