Bài báo này thách thức nhận thức phổ biến rằng khuôn khổ quản lý trí tuệ nhân tạo (AI) của Liên minh Châu Âu (EU) là một mô hình có nguyên tắc dựa trên các quyền cơ bản. Bài báo lập luận rằng mặc dù quy định về AI của EU, tập trung vào Quy định Bảo vệ Dữ liệu Chung (GDPR), Đạo luật Dịch vụ và Thị trường Kỹ thuật số (DSA) và Đạo luật AI, thường được xây dựng dựa trên diễn ngôn về quyền, nhưng thực tế các quyền được sử dụng như công cụ cho mục đích quản trị, chẳng hạn như giảm thiểu gián đoạn công nghệ, quản lý rủi ro địa chính trị và duy trì sự cân bằng hệ thống. Thông qua phân tích thể chế so sánh, bài báo đặt quản trị AI của EU vào một truyền thống pháp lý lâu đời được hình thành bởi nhu cầu phối hợp quyền lực giữa các khu vực pháp lý, trái ngược với mô hình của Hoa Kỳ, vốn bắt nguồn từ quyền lực phi tập trung, chủ nghĩa đa nguyên theo ngành và các ưu tiên theo hiến pháp đối với đổi mới và quyền tự chủ của cá nhân. Thông qua các nghiên cứu điển hình trong năm lĩnh vực chính - quyền riêng tư dữ liệu, an ninh mạng, chăm sóc sức khỏe, lao động và thông tin sai lệch - bài báo chứng minh rằng quy định của EU không phải là một cách tiếp cận dựa trên quyền một cách có ý nghĩa như thường được tuyên bố, mà thay vào đó được xây dựng xung quanh quản lý rủi ro thể chế. Tóm lại, chúng tôi cho rằng mô hình EU không nên được hiểu là một lý tưởng chuẩn mực mà các quốc gia khác nên áp dụng mà không bị chỉ trích, mà đúng hơn là một phản ứng mang tính lịch sử đối với các điều kiện chính trị của riêng mình.