본 논문은 기계 학습 모델이 특정 데이터에서 의미 있는 패턴을 학습하는 것을 방지하여 데이터 프라이버시와 보안을 보호하는 혁신적인 방어 기법인 학습 불가능한 데이터(ULD)에 대한 종합적인 검토를 제공합니다. ULD는 훈련 데이터에 섭동을 도입하여 모델 성능을 저하시켜 무단 모델이 유용한 표현을 추출하는 것을 어렵게 만듭니다. 기존 연구들이 주로 적대적 공격이나 기계 언러닝과 같은 관련 분야에 집중하는 것과 달리, 본 논문은 ULD 자체를 독립적인 연구 분야로 다루며, ULD 생성 방법, 공개 벤치마크, 평가 지표, 이론적 기반 및 실제 응용 프로그램을 검토합니다. 다양한 ULD 접근 방식을 비교 분석하여 학습 불가능성, 지각 불가능성, 효율성, 강건성과 관련된 강점, 한계 및 절충점을 분석하고, 섭동의 지각 불가능성과 모델 성능 저하 사이의 균형 및 ULD 생성의 계산 복잡성과 같은 주요 과제를 논의합니다. 마지막으로, ULD의 효과와 적용 가능성을 향상시키기 위한 유망한 미래 연구 방향을 제시하며, 기계 학습의 데이터 보호 분야에서 ULD가 중요한 도구가 될 가능성을 강조합니다.