본 논문은 대규모 데이터셋을 합성 부분 집합으로 축약하는 데이터셋 증류(Dataset Distillation) 기법을 소개하며, 저장 공간과 계산 비용을 절감하면서도 전체 데이터셋으로 학습한 것과 유사한 성능을 달성하는 것을 목표로 한다. 특히, 데이터 품질을 고려하지 않고 전체 데이터셋을 증류하는 경우 모델 성능이 저하될 수 있다는 문제점을 지적하며, 영향력 함수(Influence Functions)를 활용하여 각 데이터 샘플의 데이터 품질을 평가하고, 이를 기반으로 가중치를 부여하는 "영향력 가중 증류(Influence-Weighted Distillation, IWD)" 프레임워크를 제안한다. IWD는 유익한 데이터를 우선시하고 덜 유용하거나 해로운 데이터를 가중치를 낮춤으로써, 다양한 데이터셋 증류 프레임워크에 쉽게 통합될 수 있도록 설계되었다.