대규모 데이터셋을 활용한 고성능 심층 학습 모델 학습은 상당한 계산 및 저장 비용을 수반합니다. 본 논문은 이러한 문제를 해결하기 위해, 대규모 데이터셋을 필요한 정보를 유지하는 작은 합성 데이터셋으로 압축하는 데이터셋 증류(dataset distillation) 방법인 DDiF(Distilling Dataset into Neural Field)를 제안합니다. DDiF는 신경장(neural field)을 활용하여 대규모 데이터셋의 정보를 저장하며, 좌표를 입력으로 받고 양을 출력하는 신경장의 특성 덕분에 정보를 효과적으로 보존하고 다양한 형태의 데이터를 쉽게 생성합니다. 이론적으로 기존 연구보다 더 높은 표현력을 가지는 것을 확인하였고, 이미지, 비디오, 오디오, 3D 복셀 등 다양한 벤치마크 데이터셋에서 우수한 성능을 보임을 실험적으로 입증했습니다. 소스 코드는 https://github.com/aailab-kaist/DDiF 에서 공개됩니다.