Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Quand les voitures ont des stéréotypes : Audit des biais démographiques dans les objets à partir de modèles texte-image

Created by
  • Haebom

Auteur

Dasol Choi, Jihwan Lee, Minjae Lee, Minsuk Kahng

Contour

Au-delà de l'étude des biais de représentation humaine dans les modèles de conversion de texte en image, cet article étudie les biais démographiques affectant les objets eux-mêmes (par exemple, les automobiles). Nous présentons un nouveau cadre, le Stereotyped Object Diagnostic Audit (SODA), qui génère 2 700 images réparties sur cinq catégories d'objets à l'aide de trois modèles de pointe (GPT Image-1, Imagen 4 et Stable Diffusion) et compare les résultats de la génération à l'aide d'indices démographiques (par exemple, « pour les jeunes ») avec ceux générés à l'aide d'indices neutres. Notre analyse révèle de fortes associations entre des groupes démographiques spécifiques et des attributs visuels (par exemple, des motifs de couleurs récurrents déclenchés par des indices de genre ou d'origine ethnique). Ces motifs reflètent et renforcent non seulement des stéréotypes bien connus, mais aussi des biais plus subtils et contre-intuitifs. De plus, nous observons que certains modèles produisent des résultats peu diversifiés, amplifiant les différences visuelles par rapport aux indices neutres. Le cadre d’audit proposé offre un moyen pratique de découvrir les biais encore inhérents aux modèles génératifs d’aujourd’hui et les présente comme une étape essentielle vers un développement de l’IA plus systématique et plus responsable.

Takeaways, Limitations

Takeaways:
Nous révélons la présence de biais démographiques envers les objets dans les modèles de génération de texte en image.
Ces préjugés reflètent et renforcent les stéréotypes, et ils montrent également qu’ils incluent des préjugés subtils et contre-intuitifs.
Présentation d'une méthode pratique pour mesurer et évaluer systématiquement le biais des modèles génératifs à travers le cadre SODA.
Présentation d’une étape importante vers un développement de l’IA plus responsable.
Limitations:
La généralisabilité peut être limitée en raison des limitations du modèle et de l’ensemble de données utilisés dans l’analyse.
Une validation supplémentaire de l’objectivité et de la fiabilité du cadre SODA est nécessaire.
Manque d’analyse approfondie des causes profondes des biais et des solutions.
👍