Este artículo estudia cómo transformar oraciones maliciosas (tuits y reseñas con discurso de odio y lenguaje abusivo) en oraciones no maliciosas, manteniendo el contexto mediante modelos de lenguaje a gran escala (LLM). Evaluamos el rendimiento de la identificación y transformación de oraciones maliciosas utilizando cuatro LLM de vanguardia: Gemini, GPT-4o, DeekSeek y Groq, y comparamos y analizamos los conjuntos de datos originales y transformados mediante análisis de sentimiento y semántico. Como resultado, confirmamos que Groq muestra resultados significativamente diferentes a los de otros LLM, mientras que GPT-4o y DeepSeek-V3 muestran un rendimiento similar.