Cet article remet en question l'idée reçue selon laquelle le cadre réglementaire de l'Union européenne (UE) en matière d'intelligence artificielle (IA) serait un modèle fondé sur des principes et fondé sur les droits fondamentaux. Il soutient que, si la réglementation européenne en matière d'IA, centrée sur le Règlement général sur la protection des données (RGPD), la loi sur les services et marchés numériques (DSA) et la loi sur l'IA, s'inscrit souvent dans un discours fondé sur les droits, ces droits sont en réalité utilisés comme outils de gouvernance, notamment pour atténuer les perturbations technologiques, gérer les risques géopolitiques et maintenir l'équilibre systémique. Par une analyse institutionnelle comparative, il situe la gouvernance européenne de l'IA dans une tradition juridique ancienne, façonnée par la nécessité de coordonner les pouvoirs entre les juridictions, en la contrastant avec le modèle américain, ancré dans la décentralisation des pouvoirs, le pluralisme sectoriel et les préférences constitutionnelles en faveur de l'innovation et de l'autonomie individuelle. À travers des études de cas portant sur cinq domaines clés – confidentialité des données, cybersécurité, santé, travail et désinformation –, il démontre que la réglementation européenne n'est pas, comme on le prétend souvent, une approche véritablement fondée sur les droits, mais repose plutôt sur la gestion des risques institutionnels. En conclusion, nous soutenons que le modèle européen ne doit pas être compris comme un idéal normatif que les autres pays devraient adopter sans critique, mais plutôt comme une réponse historiquement contingente à ses propres conditions politiques.