본 논문은 AI 분류에서의 공정성 문제에 대한 철학적 및 실험적 연구를 제안한다. AI 분류에서 공정성을 구현하는 것은 단순히 공정성 지표를 운영하는 것 이상의 작업을 필요로 하며, 선택된 분류 모델과 그 이면의 원칙에 대한 설명 가능성을 확립하는 것을 포함한다고 주장한다. 구체적으로, 훈련 과정의 투명성 확보, 공정성 기준이 실제로 생성하는 결과의 결정, 그리고 다른 결과를 초래할 관련 모델과의 비교를 통한 상충 관계 평가가 포함된다. 이러한 방법론을 예시하기 위해, 저자들은 모델을 훈련하고 불균형 감지 및 공정성 개입을 위한 도구인 FairDream 패키지를 개발했다. FairDream은 인구 통계적 동등성(Demographic Parity)을 적용하도록 설정되었지만, 실험 결과 동등한 기회(Equalized Odds) 제약 조건을 충족하는 것으로 나타났다. 따라서 이 알고리즘은 사용자가 예상하는 것보다 더 보수적이다. 이러한 결과를 정당화하기 위해, 저자들은 먼저 인구 통계적 동등성과 동등한 기회를 공정성 기준으로서의 관계를 명확히 하고, FairDream의 재가중치 부여 방법을 설명하며, 밀접하게 관련된 GridSearch 모델과의 벤치마크 비교를 통해 FairDream이 도달한 상충 관계를 정당화한다. 마지막으로, 이러한 설명 단계가 AI 모델의 신뢰성을 어떻게 향상시키는지에 대한 결론을 제시한다.