본 논문은 딥러닝 모델 훈련에 사용된 데이터셋의 투명성 부족으로 인한 프라이버시 및 저작권 문제를 해결하기 위해 데이터셋 감사 기법에 대한 연구를 진행합니다. 기존의 데이터셋 감사 기법들의 적대적 공격에 대한 취약성을 분석하고, 내부 특징(IF)과 외부 특징(EF) 기반 방법으로 분류하는 새로운 분류 체계를 제시합니다. 또한, 데이터셋 사용을 은폐하는 회피 공격과 사용되지 않은 데이터셋을 허위로 지목하는 위조 공격이라는 두 가지 주요 공격 유형을 정의하고, 각 공격 유형에 대한 체계적인 공격 전략(회피 공격을 위한 분리, 제거, 탐지; 위조 공격을 위한 적대적 예시 기반 방법)을 제안합니다. 마지막으로, 17가지 회피 공격, 5가지 위조 공격, 그리고 9가지 대표적인 감사 기법으로 구성된 새로운 벤치마크 DATABench를 제시하고, 평가 결과 기존 감사 기법들이 적대적 환경에서 충분히 강력하거나 구별적이지 않음을 보여줍니다.