Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Evaluating Gender, Racial, and Age Biases in Large Language Models: A Comparative Analysis of Occupational and Crime Scenarios

Created by
  • Haebom

저자

Vishal Mirza, Rahul Kulkarni, Aakanksha Jadhav

개요

본 논문은 2024년 출시된 Gemini 1.5 Pro, Llama 3 70B, Claude 3 Opus, GPT-4o 등 4개의 주요 대규모 언어 모델(LLM)에서의 성별, 연령, 인종 편향을 평가한다. 직업 시나리오에서는 여성 캐릭터가 남성 캐릭터보다 더 자주 묘사되는 경향(미국 노동통계청 데이터 대비 37% 편차)을, 범죄 시나리오에서는 성별(54%), 인종(28%), 연령(17%)에 걸쳐 미국 연방수사국 데이터와의 상당한 편차를 발견했다. 성별 및 인종 편향을 줄이기 위한 노력이 특정 하위 집단을 과대 표현하여 문제를 악화시킬 수 있음을 보여주는 결과를 제시하며, 기존 편향 완화 기술의 한계와 더 효과적인 접근 방식의 필요성을 강조한다.

시사점, 한계점

시사점:
2024년 출시된 주요 LLM에서 여전히 상당한 수준의 성별, 연령, 인종 편향이 존재함을 확인했다.
기존의 편향 완화 기법들이 오히려 특정 하위 집단을 과대 표현하여 편향 문제를 악화시킬 수 있음을 보여준다.
더욱 효과적인 편향 완화 기술 개발의 필요성을 시사한다.
한계점:
분석에 사용된 데이터셋의 한계 (미국 데이터에 국한됨).
평가된 LLM의 종류 및 버전이 제한적임.
편향의 정량적 측정 및 해석에 대한 추가적인 연구가 필요함.
👍