# Unmasking Gender Bias in Recommendation Systems and Enhancing Category-Aware Fairness

### 저자

Tahsin Alamgir Kheya, Mohamed Reda Bouadjenek, Sunil Aryal

### 개요

본 논문은 추천 시스템의 성별 편향을 정량화하기 위한 포괄적인 지표들을 제시합니다. 기존 연구들이 서로 다른 민감한 그룹 간의 성능 지표 비교에 초점을 맞춘 것과 달리, 영화 장르와 같은 추천 항목의 세분화된 범주를 사용하여 성별 편향을 포착하는 데 중점을 둡니다.  세분화된 범주를 고려하는 공정성 지표를 주 추천 손실과 함께 정규화 항으로 사용하면 모델 출력의 편향을 효과적으로 최소화할 수 있음을 보여줍니다. 세 개의 실제 데이터 세트와 다섯 개의 기준 모델, 두 개의 인기 있는 공정성 인식 모델을 사용하여 실험을 수행하고, 제시된 지표가 기존 지표보다 추천 항목의 편향에 대한 향상된 통찰력을 제공함을 보여줍니다.  또한, 정규화 항을 통합하면 전체 추천 성능의 저하 없이 다양한 범주의 추천에서 공정성이 크게 향상됨을 보여줍니다.

### 시사점, 한계점

- **시사점:**

    - 추천 시스템의 성별 편향을 보다 정교하게 측정할 수 있는 새로운 지표 제시.

    - 세분화된 범주(예: 영화 장르)를 고려한 공정성 평가의 중요성 강조.

    - 제시된 지표를 정규화 항으로 사용하여 추천 시스템의 편향을 효과적으로 완화할 수 있음을 실증.

    - 전체 추천 성능 저하 없이 공정성을 향상시킬 수 있는 방법 제시.

- **한계점:**

    - 성별 편향에만 초점을 맞추어 다른 민감한 속성(인종, 연령 등)에 대한 편향은 고려하지 않음.

    - 실험에 사용된 데이터셋과 모델의 일반화 가능성에 대한 추가적인 검증 필요.

    - 제시된 지표와 정규화 기법의 최적화 및 다양한 상황에 대한 적용 가능성에 대한 추가 연구 필요.

[PDF 보기](https://arxiv.org/pdf/2502.17921)

![https://i.imgur.com/5WUq2TT.jpeg](https://i.imgur.com/5WUq2TT.jpeg)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
