Cet article aborde le débat sur l'auditabilité des systèmes d'intelligence artificielle (IA). L'auditabilité désigne la capacité d'évaluer de manière indépendante la conformité aux normes éthiques, juridiques et techniques tout au long du cycle de vie du système d'IA. Il explore la manière dont les cadres réglementaires émergents, tels que la loi européenne sur l'IA, formalisent l'auditabilité et imposent la documentation, l'évaluation des risques et les structures de gouvernance. Il analyse également les différents défis auxquels l'auditabilité de l'IA est confrontée, notamment l'opacité technique, les pratiques de documentation incohérentes, le manque d'outils et de mesures d'audit standardisés, et les principes contradictoires au sein des cadres d'IA responsables existants. Il souligne la nécessité de lignes directrices claires, de réglementations internationales harmonisées et de méthodologies sociotechniques robustes pour mettre en œuvre l'auditabilité à grande échelle, et souligne l'importance de la collaboration multipartite et du renforcement des capacités des auditeurs pour bâtir un écosystème d'audit de l'IA efficace. Il plaide en faveur de l'intégration de l'auditabilité dans les pratiques de développement de l'IA et l'infrastructure de gouvernance afin de garantir que les systèmes d'IA soient non seulement fonctionnels, mais aussi conformes aux normes éthiques et juridiques.