Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

FairSAM: Fair Classification on Corrupted Data Through Sharpness-Aware Minimization

Created by
  • Haebom

저자

Yucong Dai, Jie Ji, Xiaolong Ma, Yongkai Wu

개요

본 논문은 깨끗한 데이터로 학습된 이미지 분류 모델이 임펄스 노이즈, 가우시안 노이즈 또는 환경 노이즈와 같은 손상된 데이터에 노출될 때 성능 저하가 발생하고, 이러한 저하가 다양한 인구 통계적 하위 집단에 불균형적으로 영향을 미쳐 알고리즘 편향 문제를 야기한다는 점을 지적합니다. Sharpness-Aware Minimization (SAM)과 같은 강건한 학습 알고리즘은 전반적인 모델의 강건성과 일반화 성능을 향상시키지만, 인구 통계적 하위 집단 간의 편향된 성능 저하 문제를 해결하는 데는 부족합니다. 기존의 공정성 인식 기계 학습 방법 또한 데이터 손상 시 모든 인구 통계적 하위 집단에서 강건하고 공정한 정확도를 유지하는 데 어려움을 겪습니다. 이러한 문제를 해결하기 위해, 본 논문은 데이터 손상 하에서 하위 집단 간의 성능 저하를 평가하기 위한 새로운 지표를 제시하고, 공정성 전략을 SAM에 통합하여 손상된 조건에서도 인구 통계적 그룹 간의 성능을 균등화하는 새로운 프레임워크인 FairSAM을 제안합니다. 실험 결과, FairSAM은 여러 실제 데이터셋과 다양한 예측 작업에서 강건성과 공정성을 성공적으로 조화시켜 데이터 손상이 있는 경우에도 공정하고 탄력적인 이미지 분류를 위한 구조적인 해결책을 제공함을 보여줍니다.

시사점, 한계점

시사점:
데이터 손상 하에서 인구 통계적 하위 집단 간의 성능 저하를 평가하는 새로운 지표 제시.
강건성과 공정성을 동시에 고려하는 새로운 프레임워크 FairSAM 제안.
FairSAM을 통해 데이터 손상이 존재하는 환경에서도 공정하고 탄력적인 이미지 분류 달성 가능성 제시.
실제 데이터셋을 이용한 실험을 통해 FairSAM의 효과 검증.
한계점:
제안된 지표 및 FairSAM의 일반화 성능에 대한 추가 연구 필요.
다양한 유형의 데이터 손상 및 인구 통계적 하위 집단에 대한 추가 실험 필요.
FairSAM의 계산 비용 및 복잡도에 대한 분석 필요.
👍