Cet article présente une évaluation technique des complexités réglementaires liées à la mise en œuvre d'un système d'inspection visuelle automatisé basé sur l'apprentissage profond (AP) pour les dispositifs médicaux de classe III. Il examine plus précisément les défis auxquels les fabricants sont susceptibles d'être confrontés, car les exigences relatives aux systèmes à haut risque prévues par la loi européenne sur l'IA diffèrent des cadres réglementaires existants, tels que le règlement sur les dispositifs médicaux (RDM) et le règlement sur les normes de qualité de la FDA (QSR). Il analyse les différences entre les principes de gestion des risques, la gouvernance des ensembles de données, la validation des modèles, les exigences d'explicabilité et les obligations de surveillance post-déploiement. Il met également en évidence les zones d'incertitude, notamment les contraintes liées à la conservation des données, les défis de conformité mondiale et la difficulté d'obtenir une signification statistique lors de la validation avec des données de défauts limitées. L'analyse se concentre sur les modèles statiques et offre une perspective technique, plutôt que de fournir des conseils juridiques ou réglementaires.