Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Cuando los coches tienen estereotipos: auditoría del sesgo demográfico en objetos a partir de modelos de texto a imagen

Created by
  • Haebom

Autor

Dasol Choi, Jihwan Lee, Minjae Lee, Minsuk Kahng

Describir

Además de estudiar el sesgo de representación humana en modelos de generación de texto a imagen, este artículo investiga los sesgos demográficos en los propios objetos (p. ej., automóviles). Presentamos un novedoso marco, la Auditoría Diagnóstica de Objetos Estereotipados (SODA), que genera 2700 imágenes de cinco categorías de objetos utilizando tres modelos de vanguardia (GPT Imagen-1, Imagen 4 y Difusión Estable) y compara los resultados de la generación utilizando claves demográficas (p. ej., "para jóvenes") con los generados mediante indicaciones neutrales. Nuestro análisis revela fuertes asociaciones entre grupos demográficos específicos y atributos visuales (p. ej., patrones de color recurrentes desencadenados por claves de género o etnia). Estos patrones reflejan y refuerzan no solo estereotipos conocidos, sino también sesgos más sutiles y contraintuitivos. Además, observamos que algunos modelos producen resultados con baja diversidad, lo que amplifica las diferencias visuales en comparación con las indicaciones neutrales. El marco de auditoría propuesto proporciona una forma práctica de descubrir los sesgos aún inherentes a los modelos generativos actuales y los presenta como un paso esencial hacia un desarrollo de IA más sistemático y responsable.

Takeaways, Limitations

Takeaways:
Revelamos la presencia de sesgos demográficos hacia los objetos en los modelos de generación de texto a imagen.
Estos sesgos reflejan y refuerzan estereotipos, y también muestran que incluyen sesgos sutiles y contra-intuitivos.
Presentamos un método práctico para medir y evaluar sistemáticamente el sesgo de los modelos generativos a través del marco SODA.
Presentando un paso importante hacia un desarrollo de IA más responsable.
Limitations:
La generalización puede ser limitada debido a limitaciones en el modelo y el conjunto de datos utilizados en el análisis.
Se necesita una mayor validación de la objetividad y confiabilidad del marco SODA.
Falta de análisis en profundidad de las causas fundamentales del sesgo y de las soluciones.
👍