벵골어 텍스트의 독성 언어는 특히 온라인 환경에서 여전히 만연하며, 이에 대한 효과적인 예방 조치는 거의 없습니다. 본 논문에서는 Pareto 클래스 최적화된 대규모 언어 모델(LLM)과 Chain-of-Thought(CoT) 프롬프팅을 결합하여 벵골어 텍스트 해독 파이프라인을 제안합니다. 이를 위해, Pareto-최적화된 LLM을 사용하여 생성된 68,041개의 독성 벵골어 문장, 클래스별 독성 레이블, 추론 및 해독된 문구로 구성된 인공적으로 생성된 병렬 코퍼스인 BanglaNirTox를 구축했습니다. BanglaNirTox 데이터 세트는 언어 모델을 미세 조정하여 벵골어 문장의 더 나은 해독 버전을 생성하는 데 사용됩니다. 연구 결과에 따르면 CoT 프롬프팅을 사용한 Pareto-최적화 LLM이 벵골어 텍스트 해독의 품질과 일관성을 크게 향상시켰습니다.