Dans cet article, nous présentons une méthode permettant de quantifier l'incertitude des systèmes d'IA dont les performances sont incertaines, dans le contexte de la tendance croissante du développement logiciel intégrant des sous-systèmes d'IA dans des pipelines automatisés. Malgré la connaissance de l'incertitude dans les analyses de risques existantes, aucune étude n'a tenté d'estimer l'incertitude des systèmes augmentés par l'IA en tenant compte de la propagation des erreurs dans le pipeline. Cette étude fournit une base formelle pour capturer la propagation de l'incertitude, développe un simulateur pour quantifier l'incertitude et évalue la simulation de la propagation des erreurs à travers une étude de cas. Nous discutons également de la généralisabilité et des limites de l'approche, et formulons des recommandations pour les politiques d'évaluation des systèmes d'IA. Les travaux futurs incluent l'extension de l'approche en assouplissant les hypothèses restantes et en expérimentant avec des systèmes réels.