Este artículo estudia técnicas de auditoría de conjuntos de datos para abordar problemas de privacidad y derechos de autor derivados de la falta de transparencia en los conjuntos de datos utilizados en el entrenamiento de modelos de aprendizaje profundo. Analizamos las vulnerabilidades de las técnicas existentes de auditoría de conjuntos de datos a ataques adversarios y proponemos un nuevo sistema de clasificación que las categoriza en métodos basados en características internas (IF) y características externas (EF). Además, definimos dos tipos principales de ataque: ataques de evasión, que ocultan el uso de conjuntos de datos, y ataques de falsificación, que reclaman falsamente conjuntos de datos no utilizados. Proponemos estrategias de ataque sistemáticas para cada tipo (separación, eliminación y detección para ataques de evasión; métodos adversarios basados en ejemplos para ataques de falsificación). Finalmente, presentamos un nuevo punto de referencia, DATABench, compuesto por 17 ataques de evasión, cinco ataques de falsificación y nueve técnicas de auditoría representativas. Los resultados de nuestra evaluación demuestran que las técnicas de auditoría existentes no son lo suficientemente robustas o discriminatorias en entornos adversarios.