본 논문은 EU AI Act에서 제시된 전통적인 법적 차별금지 규정과 머신러닝 기반 알고리즘 공정성 개념 간의 관계를 심층 분석하여 두 개념을 연결하는 것을 목표로 한다. 법학 및 컴퓨터 과학 분야 학자들을 위한 두 개념에 대한 소개와 AI Act의 법적 차별금지 규정과 알고리즘 공정성 간의 관계 분석을 통해 다음 세 가지 주요 결과를 도출한다. 첫째, 대부분의 차별금지 규정은 고위험 AI 시스템만을 대상으로 한다. 둘째, 고위험 시스템 규제는 데이터 입력 요구사항과 출력 모니터링을 모두 포함하지만, 규정이 불일치하고 계산 가능성에 대한 의문을 제기한다. 셋째, 고위험 시스템으로 분류되지 않는 대규모 언어 모델과 같은 범용 AI 모델에 대한 규정은 다른 규정에 비해 구체성이 부족하다. 이러한 결과를 바탕으로 AI 시스템에 대한 보다 구체적인 감사 및 테스트 방법론 개발을 권고하며, AI 시스템의 차별 문제를 연구하는 법학자와 컴퓨터 과학 기반 머신러닝 연구자 간의 미래 학제 간 협력의 기초가 되고자 한다.