본 논문은 머신러닝 응용 프로그램의 잠재적 피해에 대한 이해의 필요성을 강조하며, 기존의 공정성 지표가 인간의 심리적 피해 경험에 근거하지 않는다는 점을 지적합니다. 이미지 검색에서의 성별 고정관념을 사례 연구로 활용하여 사람들이 머신러닝 오류에 어떻게 반응하는지 조사합니다. 설문 조사를 통해 모든 머신러닝 오류가 고정관념을 반영하거나 동일한 수준으로 유해하지 않음을 보여줍니다. 실험 연구에서는 참가자들에게 고정관념을 강화하는, 위반하는, 중립적인 머신러닝 오류를 무작위로 노출시켜, 고정관념을 강화하는 오류가 더 큰 경험적(주관적) 피해를 유발하지만, 인지적 신념, 태도 또는 행동에는 최소한의 변화만 가져온다는 것을 발견합니다. 이러한 경험적 피해는 남성보다 여성에게 더 큰 영향을 미칩니다. 그러나 특정 고정관념 위반 오류는 남성에게 더 큰 경험적 피해를 입히는데, 이는 남성성에 대한 위협으로 인식될 가능성이 있습니다. 따라서 공정성 완화에 있어 피해만을 지침으로 삼을 수 없으며, 누가 어떤 피해를 왜 경험하는지에 따라 미묘한 관점이 필요하다는 결론을 제시합니다.