본 논문은 기계 학습(ML)의 공정성에 대한 기존 연구가 주로 분배적 평등(distributive equality)에 초점을 맞춰 불공정성을 다루는 데 한계가 있다고 주장합니다. 기존 연구는 ML 모델이 기회와 같은 이점을 불평등하게 분배하는 것을 문제 삼지만, ML 시스템이 구조적 불평등(structural inequality)을 강화하여 야기하는 배분적 피해(allocative harms) 외에 표상적 피해(representational harms, e.g., 스테레오타입, 소외)는 제대로 설명하지 못한다는 것입니다. 따라서 논문은 평등주의(egalitarianism)를 기반으로, 분배적 평등과 관계적 평등(relational equality)을 모두 통합하는 다면적인 공정성 프레임워크를 제시합니다. 이 프레임워크는 ML 시스템이 야기하는 모든 유형의 피해를 다루는 보다 포괄적인 윤리적 토대를 제공하고, ML 파이프라인 전체에 걸쳐 이 프레임워크를 구현하기 위한 실질적인 방법을 제시합니다.