Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Gender and Positional Biases in LLM-Based Hiring Decisions: Evidence from Comparative CV/R\'esum\'e Evaluations

Created by
  • Haebom

저자

David Rozado

개요

본 연구는 22개의 주요 대규모 언어 모델(LLM)을 사용하여 이력서 또는 경력(CV)을 기반으로 전문가 후보자를 평가할 때 LLM의 행동을 조사합니다. 각 모델에는 직무 설명과 성별이 다른 두 개의 전문가 일치 CV(한 개는 남성 이름, 다른 하나는 여성 이름)가 주어졌으며, 더 적합한 후보를 선택하도록 요청받았습니다. 관찰된 후보 선택의 선호도가 성별 이름 단서에서 비롯되었는지 확인하기 위해 각 CV 쌍은 이름을 바꿔 두 번 제시되었습니다. 성별에 따른 전문 자격이 동일함에도 불구하고 모든 LLM은 70개의 다른 직업에서 여성 이름의 후보를 지속적으로 선호했습니다. CV에 명시적인 성별 필드(남성/여성)를 추가하면 여성 지원자에 대한 선호도가 더욱 높아졌습니다. 성별 이름이 성별 중립적 식별자 "Candidate A"와 "Candidate B"로 바뀌었을 때, 여러 모델은 "Candidate A"를 선택하는 것을 선호했습니다. 이러한 성별 중립적 식별자 간의 성별 할당을 상쇄하면 후보 선택에서 성별 동등성이 나타났습니다. 쌍을 비교하는 대신 CV를 개별적으로 평가하도록 요청받았을 때, LLM은 전반적으로 여성 CV에 약간 더 높은 평균 점수를 부여했지만 효과 크기는 무시할 만했습니다. 후보 이름 옆에 선호하는 대명사(he/him 또는 she/her)를 포함하면 성별에 관계없이 후보가 선택될 가능성이 약간 증가했습니다. 마지막으로, 대부분의 모델은 프롬프트에 먼저 나열된 후보를 선택하는 상당한 위치 편향을 보였습니다.

시사점, 한계점

시사점:
LLM이 고위험 자율 의사결정 맥락에서 배포될 때 주의가 필요함을 강조합니다.
LLM이 일관되게 원칙적인 추론을 적용하는지에 대한 의문을 제기합니다.
LLM의 성별 편향을 명확하게 보여주어, 공정한 인공지능 개발의 중요성을 시사합니다.
LLM의 위치 편향 또한 드러나, 입력 데이터의 순서에 따른 결과의 차이를 고려해야 함을 보여줍니다.
한계점:
실험에 사용된 CV의 특징(예: 경력, 기술 등)에 대한 구체적인 설명이 부족합니다.
70개의 직업에 대한 세부적인 내용이 제공되지 않아 일반화 가능성에 대한 검토가 필요합니다.
LLM의 성별 편향을 완화하기 위한 구체적인 해결 방안 제시가 부족합니다.
다양한 LLM 아키텍처 및 학습 데이터셋에 대한 일반화 가능성에 대한 추가 연구가 필요합니다.
👍