본 논문은 딥러닝의 높은 데이터 저장 및 학습 비용 문제를 해결하기 위해 데이터셋 가지치기(pruning) 기법을 제시합니다. 기존 방법들의 한계인 전체 데이터셋을 이용한 사전 학습 단계의 높은 비용 문제를 해결하고자, 예제의 난이도와 예측 불확실성을 고려하는 Difficulty and Uncertainty-Aware Lightweight (DUAL) 점수를 도입하여 초기 학습 단계부터 중요한 샘플을 식별합니다. 또한, 과도한 가지치기에 따른 정확도 저하 문제를 해결하기 위해 Beta 분포를 이용한 비율 적응형 샘플링 기법을 제안합니다. 이미지 분류(라벨 노이즈 및 이미지 손상 포함), 모델 아키텍처 일반화 등 다양한 실험을 통해 기존 최고 성능(SOTA) 방법들보다 우수한 성능을 보임을 입증합니다. 특히 ImageNet-1k 에서는 기존 방법 대비 66%의 시간 절감 효과와 90% 가지치기 비율에서 60%의 테스트 정확도를 달성했으며, CIFAR 데이터셋에서는 15%의 시간 절감과 SOTA 성능을 유지했습니다.