本論文は、欧州連合(EU)の人工知能(AI)規制フレームワークが基本権利に基づく原則的なモデルであるという一般的な認識に異議を申し立てる。 EUのAI規制は一般データ保護規定(GDPR)、デジタルサービス及び市場法(DSA)、AI法などを中心に構成されており、権利基盤の談論で包装されているが、実際には技術的混乱緩和、地政学的リスク管理、システムバランス維持など管理的目的のためのツールとして権利が活用されると主張する。比較制度分析を通じて、EUのAIガバナンスを、複数の管轄権間の権力調整の必要性に応じて形成された長年の法的秩序の伝統の中に置き、分権化された権限、部門的多元主義、革新と個人自律性に対する憲法的好みに根ざしたアメリカのモデルと対照する。データのプライバシー、サイバーセキュリティ、医療、労働、虚偽の情報など、5つの主要分野のケーススタディは、EU規制がしばしば主張されるように意味のある権利中心ではなく、代わりに制度的リスク管理を中心に構築されていることを示しています。結論として、EUモデルは、他の国々が批判なしに採用すべき規範的な理想を反映するのではなく、独自の政治的条件に対する歴史的に偶然の反応として理解すべきであると主張する。