Sign In

Who Does Your Algorithm Fail? Investigating Age and Ethnic Bias in the MAMA-MIA Dataset

Created by
  • Haebom
Category
Empty

저자

Aditya Parikh, Sneha Das, Aasa Feragen

개요

본 논문은 딥러닝 모델이 진단 워크플로우를 개선하는 것을 목표로 하지만, 이미지 분할과 같은 분야에서 공정성 평가가 아직 충분히 연구되지 않았다는 점을 지적한다. 특히 유방암 종양 분할 데이터셋 MAMA-MIA를 사용하여 자동 분할 라벨의 공정성을 분석하고, 연령, 민족성, 데이터 소스에 따른 분할 품질을 평가한다. 분석 결과, 연령 관련 편향이 존재하며, 이는 데이터 소스와 같은 혼동 요인을 통제한 후에도 지속되었다. 또한, 여러 데이터 소스로부터 데이터를 통합하는 것이 특정 위치의 민족적 편향에 영향을 미친다는 것을 보여준다.

시사점, 한계점

자동 분할 모델에서 연령 관련 편향이 발견되었으며, 이는 젊은 환자에게 불리하게 작용할 수 있음.
데이터 소스 간의 차이점을 고려해도 연령 관련 편향이 지속됨.
생리학적 요인이 연령 관련 편향의 원인일 수 있다는 가설 제기.
여러 데이터 소스의 통합이 특정 민족 집단에 대한 편향을 증폭시킬 수 있음을 확인.
세분화된 수준에서 데이터 분석의 필요성을 강조.
이미지 분할 분야에서 공정성 평가의 중요성을 강조.
해당 논문의 한계점은 구체적인 해결 방안 제시보다는 문제점을 지적하는 데 초점을 맞추고 있다는 점.
👍