Justice in Judgment: Unveiling (Hidden) Bias in LLM-assisted Peer Reviews
Created by
Haebom
저자
Sai Suresh Marchala Vasu, Ivaxi Sheth, Hui-Po Wang, Ruta Binkyte, Mario Fritz
개요
본 논문은 대규모 언어 모델(LLM)이 동료 심사 과정에 미치는 영향, 특히 공정성과 신뢰성에 대한 우려를 조사합니다. 저자 소속 및 성별과 같은 민감한 메타데이터를 사용한 통제 실험을 통해 LLM이 생성한 동료 심사에서의 편향을 분석합니다. 분석 결과, LLM은 일반적인 학술 순위에서 높은 순위를 차지하는 기관에 유리한 소속 편향을 지속적으로 보이며, 미묘하지만 시간이 지남에 따라 심화될 수 있는 성별 선호도도 나타냅니다. 특히 토큰 기반 소프트 평점에서는 암묵적인 편향이 더욱 두드러짐을 발견했습니다.
시사점, 한계점
•
시사점: LLM 기반 동료 심사 시스템의 공정성 및 신뢰성 문제를 명확히 제시하고, 소속 및 성별 편향의 존재를 실험적으로 증명함. 토큰 기반 평점에서 암묵적 편향이 더욱 두드러지는 현상 발견은 시스템 개선을 위한 중요한 시사점 제공.
•
한계점: 본 연구는 특정 메타데이터(소속, 성별)에 국한된 분석이며, 다른 민감한 속성(인종, 국적 등)에 대한 편향은 추가 연구가 필요함. 실험 설계 및 데이터셋의 한계로 인해 편향의 정도 및 그 영향에 대한 일반화에는 주의가 필요함. LLM 자체의 편향뿐 아니라, LLM을 활용하는 동료 심사 시스템의 설계 및 운영 방식에 따른 편향의 가능성에 대한 고찰이 부족함.