Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

MuSeD: Un conjunto de datos multimodales en español para la detección del sexismo en vídeos de redes sociales

Created by
  • Haebom

Autor

Laura De Grazia, Pol Pastells, Mauro Vazquez Chas, Desmond Elliott, Danae Sanchez Villegas, Mireia Farr us, Mariona Taul e

Describir

Este artículo presenta un enfoque multimodal para detectar sexismo en contenido de video en línea, particularmente en plataformas de redes sociales como TikTok y Vitut. Presentamos un novedoso conjunto de datos de detección de sexismo multimodal en español, MuSeD (aproximadamente 11 horas de video), y proponemos un marco de anotación innovador que analiza las contribuciones del texto, el habla y las modalidades visuales. Evaluamos varios modelos de lenguaje a gran escala (LLM) y LLM multimodales en tareas de detección de sexismo, encontrando que la información visual juega un papel crucial en el etiquetado de contenido sexista. Si bien los modelos detectan eficazmente el sexismo explícito, tienen dificultades con las formas implícitas de sexismo, como los estereotipos, lo que es consistente con un bajo acuerdo entre anotadores. Esto subraya la dificultad inherente de identificar el sexismo implícito, ya que depende del contexto social y cultural.

Takeaways, Limitations

Takeaways:
Presentamos MuSeD, un nuevo conjunto de datos multimodales para detectar discriminación de género en el contenido de video de las redes sociales.
Presentamos un innovador marco de anotación para la detección de discriminación de género que integra modalidades de texto, voz y visuales.
Evaluar el desempeño de la detección de discriminación de género en varios LLM y LLM multimodales y confirmar la importancia de la información visual.
Destaca la dificultad de detectar el sexismo implícito y la importancia del contexto sociocultural.
Limitations:
El conjunto de datos está compuesto íntegramente de español, lo que limita la generalización a otros idiomas.
El modelo tiene dificultades para detectar el sexismo implícito (estereotipos, etc.).
Existen preocupaciones sobre la confiabilidad de las anotaciones, ya que hay casos en que el nivel de acuerdo entre los anotadores es bajo.
👍