본 논문은 유럽연합(EU)의 인공지능(AI) 규제 프레임워크가 기본 권리에 기반한 원칙적인 모델이라는 일반적인 인식에 이의를 제기한다. EU의 AI 규제는 일반 데이터 보호 규정(GDPR), 디지털 서비스 및 시장 법(DSA), AI 법 등을 중심으로 구성되어 있으며, 권리 기반의 담론으로 포장되어 있지만, 실제로는 기술적 혼란 완화, 지정학적 위험 관리, 시스템 균형 유지 등 관리적 목적을 위한 도구로서 권리가 활용된다고 주장한다. 비교 제도 분석을 통해 EU의 AI 거버넌스를 여러 관할권 간의 권력 조정 필요성에 따라 형성된 오랜 법적 질서의 전통 속에 위치시키고, 분권화된 권한, 부문적 다원주의, 혁신과 개인 자율성에 대한 헌법적 선호도에 뿌리를 둔 미국의 모델과 대조한다. 데이터 개인 정보 보호, 사이버 보안, 의료, 노동, 허위 정보 등 5가지 주요 영역에 대한 사례 연구를 통해 EU 규제는 종종 주장되는 것처럼 의미 있는 권리 중심이 아니며, 대신 제도적 위험 관리를 중심으로 구축되어 있음을 보여준다. 결론적으로 EU 모델은 다른 국가들이 비판 없이 채택해야 할 규범적 이상을 반영하는 것이 아니라, 자체 정치적 조건에 대한 역사적으로 우연한 반응으로 이해해야 한다고 주장한다.