Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Unequal Opportunities: Examining the Bias in Geographical Recommendations by Large Language Models

Created by
  • Haebom

저자

Shiran Dudy, Thulasi Tholeti, Resmi Ramachandranpillai, Muhammad Ali, Toby Jia-Jun Li, Ricardo Baeza-Yates

개요

본 논문은 대규모 언어 모델(LLM)이 미국 도시 및 마을에 대한 추천에서 나타내는 편향성을 조사합니다. LLM이 이전 정보 탐색 도구로 널리 사용되면서, 경제적, 사회적, 문화적 영향을 미칠 수 있는 편향성에 대한 우려가 제기되었습니다. 본 연구는 이주, 관광, 사업 시작 등 세 가지 영역에서 LLM의 도시 및 마을 추천에 대한 편향성을 분석하고, LLM 응답의 유사성과 특정 지역 과대/과소 대표 경향을 조사합니다. 결과적으로 LLM 추천에서 일관된 인구 통계적 편향이 발견되었으며, 이는 기존의 경제적 불평등을 심화시키는 "부익부 빈익빈" 효과를 초래할 수 있음을 시사합니다.

시사점, 한계점

시사점: LLM의 추천 시스템이 인구 통계적 편향을 반영하여 사회경제적 불평등을 심화시킬 수 있음을 보여줍니다. LLM 기반 서비스 및 애플리케이션 개발 시 편향성 문제를 고려해야 함을 강조합니다. LLM 응답의 일관성 분석을 통해 편향성을 탐지하는 새로운 방법론을 제시합니다.
한계점: 본 연구는 미국 도시 및 마을에 대한 추천에만 초점을 맞추었으며, 다른 국가 또는 영역으로 일반화하기에는 제한적일 수 있습니다. 분석에 사용된 LLM의 종류 및 버전이 명시적으로 언급되지 않아 연구의 재현성에 제한이 있을 수 있습니다. 편향성의 원인과 해결 방안에 대한 심층적인 논의가 부족합니다.
👍