Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Am I Being Treated Fairly? A Conceptual Framework for Individuals to Ascertain Fairness

Created by
  • Haebom

저자

Juliett Suarez Ferreira, Marija Slavkovik, Jorge Casillas

개요

본 논문은 자동 의사결정 시스템(ADM)의 공정성을 평가하는 기존의 지표와 완화 기법을 넘어, 개인이 ADM 시스템의 결정에 대해 "나는 공정하게 대우받고 있는가?"라는 질문을 할 수 있도록 하는 방법을 탐구한다. 논문에서는 공정성을 ADM 시스템의 속성으로만 볼 것이 아니라, 개인이 자신에게 영향을 미치는 결정에 대한 정보를 얻고, 차별적인 것으로 판명될 경우 해당 결정에 대해 이의를 제기하고 효과적인 구제를 요청할 수 있는 인식론적 권리로 재규정해야 한다고 주장한다. 설명 가능한 인공지능, 책임성, 이의제기 가능성 등 기존 연구의 핵심 개념을 검토하고, 이러한 영역의 개념을 통합하여 최종 사용자에게 권한을 부여하는 다양한 도구를 결합하여 공정성을 확인하는 개념적 프레임워크를 제안한다. 이 프레임워크는 실무자를 위한 기술적 해결책에서 개인이 결정의 공정성을 이해하고, 이의를 제기하고, 검증할 수 있도록 하는 메커니즘으로 초점을 전환하며, 기술적 요구 사항과 실질적인 사용자 중심의 책임성 간의 간극을 해소하기 위한 청사진을 조직 및 정책 입안자에게 제공한다.

시사점, 한계점

시사점:
개인의 공정성에 대한 인식론적 권리를 강조하여, 공정성 평가의 패러다임을 전환.
기술적 해결책 중심에서 사용자 중심의 공정성 평가 및 구제 메커니즘으로의 전환 제시.
설명 가능한 AI, 책임성, 이의제기 가능성 등 다학제적 접근을 통한 종합적 프레임워크 제시.
조직 및 정책 입안자를 위한 실질적인 사용자 중심의 책임성 확보 방안 제시.
한계점:
제안된 프레임워크의 구체적인 구현 및 실제 적용 가능성에 대한 검증 부족.
다양한 유형의 ADM 시스템 및 공정성 문제에 대한 일반화 가능성에 대한 추가 연구 필요.
사용자의 이해도 및 기술적 역량에 따른 접근성 차이 고려 필요.
개인의 이의제기에 대한 효과적인 구제 절차 및 메커니즘에 대한 구체적인 제안 부족.
👍