Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Transformación abusiva de textos mediante LLM

Created by
  • Haebom

Autor

Rohitash Chandra, Jiyong Choi

Describir

Este artículo estudia cómo transformar oraciones maliciosas (tuits y reseñas con discurso de odio y lenguaje abusivo) en oraciones no maliciosas, manteniendo el contexto mediante modelos de lenguaje a gran escala (LLM). Evaluamos el rendimiento de la identificación y transformación de oraciones maliciosas utilizando cuatro LLM de vanguardia: Gemini, GPT-4o, DeekSeek y Groq, y comparamos y analizamos los conjuntos de datos originales y transformados mediante análisis de sentimiento y semántico. Como resultado, confirmamos que Groq muestra resultados significativamente diferentes a los de otros LLM, mientras que GPT-4o y DeepSeek-V3 muestran un rendimiento similar.

Takeaways, Limitations

Takeaways: Demostrar experimentalmente las posibilidades y limitaciones de transformar oraciones maliciosas mediante LLM. Orientar para seleccionar el modelo óptimo mediante la comparación del rendimiento de varios LLM. Presentar una evaluación cuantitativa mediante análisis de sentimientos y semántico.
Limitations: Tipos limitados de LLM utilizados para la evaluación. Se requiere más investigación sobre tipos más diversos y extensos de oraciones maliciosas. Falta de evaluación cualitativa de las oraciones transformadas (p. ej., naturalidad, precisión en la conservación del contexto, etc.). Se requiere un análisis más profundo de los resultados inusuales de Groq.
👍