Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs

Created by
  • Haebom

저자

Yixin Wan, Kai-Wei Chang

개요

본 논문은 대규모 언어 모델(LLM)이 생성하는 콘텐츠에서 나타나는 사회적 편향, 특히 언어적 행위자성(agency)에 대한 편향을 평가하기 위한 새로운 벤치마크인 LABE(Language Agency Bias Evaluation)를 제시합니다. LABE는 성별, 인종, 그리고 교차적(intersectionality) 측면에서의 언어적 행위자성 편향을 평가하며, ChatGPT, Llama3, Mistral 세 가지 LLM을 대상으로 전기, 교수 평가, 추천서 작성 세 가지 작업에서 편향을 분석합니다. 분석 결과, LLM은 인간이 작성한 텍스트보다 성별 편향이 더 크게 나타나며, 특히 교차적 편향이 다른 유형의 편향보다 훨씬 높게 나타나는 것을 확인했습니다. 또한, 프롬프트 기반 완화 기법은 불안정하며 오히려 편향을 악화시키는 경우가 많다는 것을 발견하고, 선택적 수정을 통한 완화 기법(MSR)을 제시하여 프롬프트 기반 방법보다 효과적이고 안정적인 편향 완화가 가능함을 보였습니다.

시사점, 한계점

시사점:
LLM이 생성하는 콘텐츠에서 성별, 인종, 교차적 측면의 언어적 행위자성 편향이 존재함을 실증적으로 밝힘.
기존의 프롬프트 기반 편향 완화 기법의 한계를 드러내고, 더 효과적인 완화 기법인 MSR을 제시함.
LLM의 사회적 편향 문제 해결을 위한 새로운 연구 방향을 제시함.
LABE 벤치마크는 LLM의 편향을 포괄적으로 평가하는 유용한 도구임을 제시함.
한계점:
LABE 벤치마크가 평가하는 편향의 종류가 제한적일 수 있음. (성별, 인종, 교차적 측면에 국한됨)
MSR의 효과가 특정 LLM과 작업에만 국한될 가능성이 있음.
더 많은 LLM과 다양한 작업에 대한 추가 연구가 필요함.
프롬프트 엔지니어링을 통한 편향 완화의 불안정성에 대한 추가적인 분석 필요.
👍