본 논문은 기존의 머신러닝(ML) 시스템의 편향성 완화 노력에도 불구하고 소외된 사람들에게 피해를 주는 현실을 지적하며, 편향성 제거 및 공정한 모델 생성이 항상 가능하거나 바람직한 목표가 아님을 보여줍니다. 대신, 편향된 언어를 식별하는 모델을 생성하여 데이터셋의 편향성에 주목하는 방식으로 ML 편향 문제를 재구성합니다. 정보 및 유산 전문가의 업무 흐름이라는 특정 사용 사례를 통해 워크숍에서 모델을 평가한 결과, ML이 편향성을 식별하는 데 있어 갖는 한계(맥락적 특성, 편향 완화 접근 방식이 동시에 특정 집단을 우대하고 억압하는 방식, 편향의 불가피성 등)를 보여줍니다. 따라서 주어진 ML 사용 사례에서 편향 제거 또는 공정성 달성의 실현 가능성을 조사하기 위한 혼합 방법론 접근 방식을 제공하여 ML 편향 및 공정성에 대한 접근 방식을 확장해야 할 필요성을 강조합니다.