Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

T2IBias: Uncovering Societal Bias Encoded in the Latent Space of Text-to-Image Generative Models

Created by
  • Haebom
Category
Empty

저자

Abu Sufian, Cosimo Distante, Marco Leo, Hanan Salam

개요

본 연구는 텍스트-이미지(T2I) 생성 모델이 사회적 편견을 내포하고 증폭하는지, 특히 인종 및 성별 관련 고정관념을 재현하는지 여부를 조사한다. 5개의 인기 오픈 소스 T2I 모델을 대상으로, 10개의 중립적인 직업 관련 프롬프트를 사용하여 각 직업당 100개의 이미지를 생성, 총 5,000개의 이미지를 다양한 인종과 성별의 평가자가 평가하는 실험을 수행했다. 연구 결과, 5개 모델 모두에서 간호 및 돌봄 역할은 여성화되고, 고위 직업은 남성 및 백인으로 압도적으로 표현되는 등 사회적 편향이 나타났다.

시사점, 한계점

시사점:
T2I 모델이 사회적 편견을 내포하고 증폭시킬 수 있음을 입증.
AI 프로젝트 관리자와 실무자가 책임감 있는 AI 모델 선택 및 프롬프트 커스터마이징을 통해 편향된 이미지 생성을 방지할 수 있도록 통찰력 제공.
모델별 편향 패턴(예: QWEN-Image의 동아시아인 편중, Kandinsky의 백인 우세, SDXL의 상대적으로 넓지만 편향된 분포) 식별.
책임감 있는 GenAI 시스템 구축을 위한 편향 완화 전략 제시.
한계점:
구체적인 한계점은 논문에 명시되지 않음. (논문 요약에 한계점 관련 내용 부재)
👍