Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Inference-Time Selective Debiasing to Enhance Fairness in Text Classification Models

Created by
  • Haebom

저자

Gleb Kuzmin, Neemesh Yadav, Ivan Smirnov, Timothy Baldwin, Artem Shelmanov

개요

본 논문은 재훈련이 불가능한 상황에서 예측 성능과 공정성을 향상시키기 위한 추론 시 안전 메커니즘인 선택적 디바이싱(selective debiasing)을 제안한다. 선택적 분류에서 영감을 얻어 불확실성 점수로 나타나는 낮은 품질의 예측을 버리는 것과 유사하게, 본 연구에서는 잠재적으로 편향된 모델 예측을 식별하고, 이를 버리는 대신 LEACE라는 후처리 디바이싱 방법을 사용하여 편향을 제거한다. 문제가 있는 예측을 선택하기 위해 KL 발산을 기반으로 하는 편향 정량화 방법을 제안하며, 이는 표준 불확실성 정량화 방법보다 더 나은 결과를 얻는다. 인코더 기반 분류 모델을 사용한 텍스트 분류 데이터셋에 대한 실험을 통해 선택적 디바이싱이 후처리 방법과 훈련 시 및 전처리 단계의 디바이싱 기법 간의 성능 격차를 줄이는 데 도움이 된다는 것을 보여준다.

시사점, 한계점

시사점:
재훈련이 어려운 상황에서 모델의 공정성과 예측 성능을 향상시키는 효과적인 후처리 방법을 제시한다.
KL 발산 기반의 편향 정량화 방법이 기존 불확실성 측정 방법보다 우수한 성능을 보임을 실험적으로 증명한다.
후처리 디바이싱 방법의 성능을 개선하여 기존의 훈련 시 및 전처리 기법과의 성능 격차를 줄인다.
한계점:
제안된 방법의 효과는 특정 데이터셋과 모델에 국한될 수 있다. 다양한 데이터셋과 모델에 대한 추가적인 실험이 필요하다.
KL 발산 기반의 편향 정량화 방법이 모든 유형의 편향에 대해 효과적일지는 추가 연구가 필요하다.
LEACE를 사용하는 후처리 단계의 계산 비용이 높을 수 있다. 계산 효율성을 높이는 방안이 필요할 수 있다.
👍