Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Automated Evaluation of Gender Bias Across 13 Large Multimodal Models

Created by
  • Haebom

저자

Juan Manuel Contreras

개요

본 논문은 대규모 다중 모달 모델(LMMs)에서 생성된 이미지의 성별 편향을 평가하기 위한 벤치마크인 Aymara Image Fairness Evaluation을 제시합니다. 13개의 상용 LMM을 사용하여 75개의 성별 중립적인 프롬프트로 이미지를 생성하고, 검증된 LLM을 이용하여 성별 표현을 평가했습니다. 그 결과, LMMs는 실제 노동 데이터에 비해 직업 성별 고정관념을 증폭시키고, 성별 중립적인 직업에서도 남성을 과다하게 생성하는 경향을 보였습니다. 모델 간 편향의 정도는 크게 달랐으며, 최고 성능 모델은 성별 고정관념을 완화하고 성별 균형에 가까워졌습니다. 이는 고정관념 증폭이 불가피한 결과가 아니라 설계 선택의 결과임을 시사합니다. 본 연구는 현재까지 가장 포괄적인 성별 편향에 대한 다중 모델 벤치마크를 제공하며, AI 개발에서 책임감과 공정성을 증진하기 위한 표준화되고 자동화된 평가 도구의 필요성을 강조합니다.

시사점, 한계점

시사점:
LMMs가 직업 성별 고정관념을 실제보다 증폭시킨다는 것을 규명.
모델 간 성별 편향의 정도가 크게 다르다는 것을 보여주며, 개선 가능성을 시사.
AI 개발에서 표준화되고 자동화된 공정성 평가 도구의 중요성을 강조.
최고 성능 모델의 사례를 통해 고정관념 완화 및 성별 균형 달성 가능성 제시.
한계점:
본 연구는 성별 편향에만 초점을 맞추었으며, 다른 사회적 편향(인종, 연령 등)은 고려하지 않음.
사용된 프롬프트의 수와 모델의 종류가 제한적일 수 있음.
LLM-as-a-judge 시스템의 한계로 인해 평가의 주관성이 존재할 가능성.
👍