본 논문은 머신러닝 모델의 숨겨진 차별 문제를 해결하기 위해 새로운 공정성 척도인 '판별 위험(DR)'을 제안합니다. 기존의 그룹 공정성 및 개인 공정성 척도의 한계를 극복하고자, 개인 및 그룹 공정성 양 측면을 반영하는 DR을 제시하며, 이를 활용한 앙상블 기법을 통해 공정성을 향상시키는 방법을 제안합니다. 이론적 학습 보장을 바탕으로 첫 번째 및 두 번째 순서 오라클 경계를 설정하여 공정성 향상을 증명하고, 이진 및 다중 클래스 분류 모두에 적용 가능함을 보입니다. 또한, 제안된 척도를 활용하는 가지치기 방법을 제시하고, 실험을 통해 그 효과를 평가합니다.