Cet article étudie les techniques d'audit d'ensembles de données afin de résoudre les problèmes de confidentialité et de droits d'auteur découlant du manque de transparence des ensembles de données utilisés pour l'entraînement des modèles d'apprentissage profond. Nous analysons les vulnérabilités des techniques d'audit d'ensembles de données existantes aux attaques adverses et proposons un nouveau système de classification qui les catégorise en méthodes basées sur les caractéristiques internes (IF) et les caractéristiques externes (EF). De plus, nous définissons deux principaux types d'attaques : les attaques par évasion, qui dissimulent l'utilisation des ensembles de données, et les attaques par falsification, qui revendiquent faussement des ensembles de données inutilisés. Nous proposons des stratégies d'attaque systématiques pour chaque type (séparation, suppression et détection pour les attaques par évasion ; méthodes basées sur des exemples adverses pour les attaques par falsification). Enfin, nous présentons un nouveau benchmark, DATABench, composé de 17 attaques par évasion, cinq attaques par falsification et neuf techniques d'audit représentatives. Les résultats de notre évaluation démontrent que les techniques d'audit existantes ne sont pas suffisamment robustes ni discriminantes dans les environnements adverses.