본 논문은 EU AI 법안에서 제시된 전통적인 법적 차별금지 규정과 머신러닝 기반 알고리즘 공정성 개념 간의 관계를 심층 분석합니다. AI 법안이 고위험 시스템에 특정 규칙을 적용하는데, 이는 법적 차별금지 규정과 알고리즘 공정성 개념을 모두 포함합니다. 논문은 법학 및 컴퓨터 과학 전문가를 위한 두 개념의 소개와 AI 법안의 법적 차별금지 규정과 알고리즘 공정성 간의 관계 분석을 통해 두 개념 간의 가교 역할을 합니다. 주요 분석 결과로는, 대부분의 차별금지 규정이 고위험 AI 시스템만을 대상으로 하며, 고위험 시스템 규제는 데이터 입력 요구사항과 출력 모니터링을 모두 포함하지만 부분적으로 불일치하며 계산 가능성에 대한 의문을 제기한다는 점, 그리고 기존 EU 차별금지법과 AI 법안 규정의 상호작용 가능성을 고려한다는 점을 제시합니다. 마지막으로, AI 시스템에 대한 보다 구체적인 감사 및 테스트 방법론 개발을 권장합니다.