본 논문은 깨끗한 데이터로 학습된 이미지 분류 모델이 임펄스 노이즈, 가우시안 노이즈 또는 환경 노이즈와 같은 손상된 데이터에 노출될 때 성능 저하가 발생하고, 이러한 저하가 다양한 인구 통계적 하위 집단에 불균형적으로 영향을 미쳐 알고리즘 편향 문제를 야기한다는 점을 지적합니다. Sharpness-Aware Minimization (SAM)과 같은 강건한 학습 알고리즘은 전반적인 모델의 강건성과 일반화 성능을 향상시키지만, 인구 통계적 하위 집단 간의 편향된 성능 저하 문제를 해결하는 데는 부족합니다. 기존의 공정성 인식 기계 학습 방법 또한 데이터 손상 시 모든 인구 통계적 하위 집단에서 강건하고 공정한 정확도를 유지하는 데 어려움을 겪습니다. 이러한 문제를 해결하기 위해, 본 논문은 데이터 손상 하에서 하위 집단 간의 성능 저하를 평가하기 위한 새로운 지표를 제시하고, 공정성 전략을 SAM에 통합하여 손상된 조건에서도 인구 통계적 그룹 간의 성능을 균등화하는 새로운 프레임워크인 FairSAM을 제안합니다. 실험 결과, FairSAM은 여러 실제 데이터셋과 다양한 예측 작업에서 강건성과 공정성을 성공적으로 조화시켜 데이터 손상이 있는 경우에도 공정하고 탄력적인 이미지 분류를 위한 구조적인 해결책을 제공함을 보여줍니다.