Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Where Should I Study? Biased Language Models Decide! Evaluating Fairness in LMs for Academic Recommendations

Created by
  • Haebom
Category
Empty

저자

Krithi Shailya, Akhilesh Kumar Mishra, Gokul S Krishnan, Balaraman Ravindran

개요

대규모 언어 모델(LLM)이 교육 계획과 같은 일상적인 추천 시스템에 널리 사용되면서, 이러한 모델이 사회적 편견을 영속시킬 위험이 있습니다. 이 논문은 LLaMA-3.1-8B, Gemma-7B, Mistral-7B 세 가지 오픈 소스 LLM의 대학 및 프로그램 추천에서 나타나는 지리적, 인구 통계적, 경제적 편견을 실증적으로 연구합니다. 성별, 국적, 경제 상태가 다른 360개의 시뮬레이션된 사용자 프로필을 사용하여 25,000개 이상의 추천을 분석했습니다. 결과에 따르면, 글로벌 노스(Global North) 지역의 기관이 불균형적으로 선호되고, 성별 고정관념이 강화되며, 기관의 반복 추천이 만연하는 등 강력한 편향이 나타났습니다. LLaMA-3.1은 58개국 481개 대학을 추천하며 가장 높은 다양성을 보였지만, 시스템적인 불균형은 여전히 존재했습니다. 이러한 문제를 정량화하기 위해, 정확성을 넘어 인구 통계적 및 지리적 대표성을 측정하는 새로운 다차원 평가 프레임워크를 제안합니다. 연구 결과는 공정한 고등 교육 접근을 보장하기 위해 교육용 LLM에서 편견을 고려해야 할 긴급한 필요성을 강조합니다.

시사점, 한계점

시사점:
LLM 기반 교육 추천 시스템에서 지리적, 성별, 경제적 편견이 심각하게 나타남을 실증적으로 보여줌.
글로벌 노스 지역 대학이 과도하게 추천되는 경향을 확인.
성별 고정관념 강화 및 기관 반복 추천 문제점을 지적.
다차원 평가 프레임워크를 통해 편견을 측정하는 새로운 방법론 제시.
교육 분야 LLM에서 편견 고려의 중요성을 강조.
한계점:
제한된 수의 LLM 및 사용자 프로필 사용.
시뮬레이션된 사용자 프로필의 현실성 및 일반화 가능성에 대한 의문.
특정 유형의 편견에 초점을 맞추어 다른 관련 편견은 고려하지 못했을 수 있음.
제안된 평가 프레임워크의 실질적인 구현 및 검증에 대한 추가 연구 필요.
👍