Cet article présente une méthodologie de modélisation des menaces centrée sur les actifs, qui permet de gérer les menaces de sécurité émergentes à mesure que les systèmes d'IA évoluent, passant d'applications autonomes à des agents d'IA profondément intégrés. Contrairement aux approches ascendantes traditionnelles, une approche descendante identifie systématiquement l'impact des vulnérabilités existantes et liées à l'IA sur les actifs d'IA critiques au sein de l'infrastructure distribuée utilisée pour le développement et le déploiement. Cette méthodologie permet une communication efficace entre les domaines technologiques, la quantification des hypothèses de sécurité relatives aux composants d'IA tiers (sans visibilité sur leur implémentation) et l'identification globale des vulnérabilités liées à l'IA, pertinentes pour un contexte produit spécifique. Elle est particulièrement adaptée à la sécurité des systèmes d'agents dotés de fonctions autonomes complexes. En se concentrant sur les actifs plutôt que sur les attaques, elle s'adapte à un paysage de menaces en constante évolution et s'adapte à des pipelines de développement d'IA distribuée de plus en plus complexes.