Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Gender and Positional Biases in LLM-Based Hiring Decisions: Evidence from Comparative CV/R\'esum\'e Evaluations

Created by
  • Haebom

저자

David Rozado

개요

본 연구는 22개의 주요 대규모 언어 모델(LLM)을 사용하여 이력서 또는 자기소개서를 기반으로 전문직 지원자를 평가할 때 LLM의 행동을 조사했습니다. 각 모델에는 직무 설명과 성별이 다른 두 개의 지원자 이력서(남성 이름, 여성 이름)가 주어졌고, 더 적합한 지원자를 선택하도록 요청받았습니다. 모든 LLM은 70개의 서로 다른 직종에서 여성 이름을 가진 지원자를 일관되게 선호했습니다. 이력서에 성별 필드(남성/여성)를 추가하면 여성 지원자에 대한 선호도가 더욱 높아졌습니다. 성별 중립적인 식별자("지원자 A" 및 "지원자 B")를 사용했을 때는 여러 모델이 "지원자 A"를 선택하는 경향을 보였으며, 식별자의 성별 할당을 바꾸면 성별 균형이 이루어졌습니다. 이력서를 개별적으로 평가하도록 했을 때는 여성 이력서에 약간 더 높은 점수를 부여했지만 효과는 미미했습니다. 선호하는 대명사(he/him 또는 she/her)를 추가하면 성별에 관계없이 지원자가 선택될 가능성이 약간 증가했습니다. 대부분의 모델은 먼저 제시된 지원자를 선택하는 상당한 위치 편향을 보였습니다. 결론적으로, 고위험 자동 의사 결정 상황에서 LLM을 배포할 때 주의가 필요하며, LLM이 일관되게 원칙적인 추론을 적용하는지에 대한 의문을 제기합니다.

시사점, 한계점

시사점:
LLM이 성별 고정관념에 영향을 받아 편향된 결과를 생성할 수 있음을 보여줍니다.
고위험 자동 의사 결정 시스템에서 LLM 사용의 위험성을 강조합니다.
LLM의 추론 능력에 대한 의문을 제기합니다.
LLM의 위치 편향 및 제시 순서에 따른 결과의 차이를 확인했습니다.
성별 정보를 명시적으로 제공할 경우 편향이 더욱 심화될 수 있음을 보여줍니다.
한계점:
연구에 사용된 LLM의 종류와 버전에 따라 결과가 달라질 수 있습니다.
이력서의 내용 자체보다는 이름과 성별 정보에 초점을 맞춘 연구 설계의 한계가 존재합니다.
실제 채용 과정과의 차이로 인해 일반화에 대한 제한이 있을 수 있습니다.
더욱 다양한 직종과 이력서 데이터를 사용한 추가 연구가 필요합니다.
👍