Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

MMBERT: BERT multimodal de mezcla de expertos a escala para la detección robusta del discurso de odio chino bajo perturbaciones de encubrimiento

Created by
  • Haebom

Autor

Qiyao Xue, Yuchen Dou, Ryan Shi, Xiang Lorraine Li, Wei Gao

Describir

Este artículo aborda el desafío de detectar el discurso de odio en chino, que se ve dificultado por la creciente prevalencia de técnicas de encubrimiento en las redes sociales chinas. El uso generalizado de técnicas de encubrimiento para eludir los sistemas de detección basados en texto existentes exacerba aún más este desafío. Para abordar esto, este artículo propone MMBERT, un novedoso marco multimodal basado en BERT que integra modalidades de texto, voz y visuales mediante una arquitectura de Mezcla de Expertos (MoE). Para abordar la inestabilidad asociada con la integración directa de MoE en modelos basados en BERT, este artículo desarrolla un paradigma de entrenamiento progresivo de tres etapas. MMBERT mejora la robustez frente a perturbaciones adversarias mediante la incorporación de expertos específicos de la modalidad, un mecanismo de autoatención compartido y una estrategia de asignación de expertos basada en enrutadores. Los resultados experimentales en múltiples conjuntos de datos de discurso de odio chino demuestran que MMBERT supera significativamente a un modelo de codificador basado en BERT afinado, LLM afinados y LLM que utilizan un enfoque de aprendizaje basado en el contexto.

Takeaways, Limitations

Takeaways:
Presentamos un nuevo marco multimodal (MMBERT) que mejora significativamente el rendimiento de detección de discursos de odio en las redes sociales chinas.
Mejorar la estabilidad de los modelos basados en BERT y garantizar la robustez frente a ataques adversarios a través de la arquitectura MoE y un paradigma de entrenamiento progresivo de tres etapas.
Mejorar el rendimiento de la detección integral del discurso de odio mediante la integración de múltiples modalidades (texto, voz y visual).
Demuestra un rendimiento superior al de los enfoques existentes basados en un solo modelo o en un solo LLM.
Limitations:
La evaluación del desempeño de MMBERT está limitada a un conjunto de datos chinos específicos, lo que requiere más investigación sobre su generalización.
Posible aumento del tiempo de entrenamiento y del consumo de recursos debido a la complejidad del paradigma de entrenamiento progresivo de tres etapas.
Se necesitan más experimentos y análisis para determinar el rendimiento de generalización de MMBERT frente a diversas técnicas de disfraz.
Se requiere validación de escalabilidad a otros idiomas u otras plataformas de redes sociales.
👍