Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

L’IA peut-elle être auditable ?

Created by
  • Haebom

Auteur

Himanshu Verma, Kirtan Padh, Eva Thelisson

Contour

Cet article aborde le débat sur l'auditabilité des systèmes d'intelligence artificielle (IA). L'auditabilité désigne la capacité d'évaluer de manière indépendante la conformité aux normes éthiques, juridiques et techniques tout au long du cycle de vie du système d'IA. Il explore la manière dont les cadres réglementaires émergents, tels que la loi européenne sur l'IA, formalisent l'auditabilité et imposent la documentation, l'évaluation des risques et les structures de gouvernance. Il analyse également les différents défis auxquels l'auditabilité de l'IA est confrontée, notamment l'opacité technique, les pratiques de documentation incohérentes, le manque d'outils et de mesures d'audit standardisés, et les principes contradictoires au sein des cadres d'IA responsables existants. Il souligne la nécessité de lignes directrices claires, de réglementations internationales harmonisées et de méthodologies sociotechniques robustes pour mettre en œuvre l'auditabilité à grande échelle, et souligne l'importance de la collaboration multipartite et du renforcement des capacités des auditeurs pour bâtir un écosystème d'audit de l'IA efficace. Il plaide en faveur de l'intégration de l'auditabilité dans les pratiques de développement de l'IA et l'infrastructure de gouvernance afin de garantir que les systèmes d'IA soient non seulement fonctionnels, mais aussi conformes aux normes éthiques et juridiques.

Takeaways, Limitations

Takeaways:
Les nouveaux cadres réglementaires, tels que la loi européenne sur l’IA, démontrent que l’auditabilité des systèmes d’IA devient de plus en plus formalisée.
Cela suggère la nécessité de lignes directrices claires, de réglementations internationales harmonisées et de méthodologies sociotechniques robustes pour l’auditabilité de l’IA.
Souligne l’importance de construire un écosystème d’audit d’IA efficace grâce à la coopération multipartite et au renforcement des capacités des auditeurs.
Nous soutenons que l’auditabilité devrait être intégrée dans les pratiques de développement de l’IA et dans l’infrastructure de gouvernance.
Limitations:
Manque de suggestions pour des outils et des mesures d’audit spécifiques.
Il y a un manque de discussions concrètes sur les moyens de coopérer entre les différentes parties prenantes.
Il existe un manque de mesures pratiques pour parvenir à une harmonisation réglementaire internationale.
Manque de descriptions spécifiques des méthodologies sociotechniques pour l’auditabilité de l’IA.
👍