Sign In

Distilling Dataset into Neural Field

Created by
  • Haebom
Category
Empty

저자

Donghyeok Shin, HeeSun Bae, Gyuwon Sim, Wanmo Kang, Il-Chul Moon

개요

대규모 데이터셋을 활용한 고성능 심층 학습 모델 학습은 상당한 계산 및 저장 비용을 수반합니다. 본 논문은 이러한 문제를 해결하기 위해, 대규모 데이터셋을 필요한 정보를 유지하는 작은 합성 데이터셋으로 압축하는 데이터셋 증류(dataset distillation) 방법인 DDiF(Distilling Dataset into Neural Field)를 제안합니다. DDiF는 신경장(neural field)을 활용하여 대규모 데이터셋의 정보를 저장하며, 좌표를 입력으로 받고 양을 출력하는 신경장의 특성 덕분에 정보를 효과적으로 보존하고 다양한 형태의 데이터를 쉽게 생성합니다. 이론적으로 기존 연구보다 더 높은 표현력을 가지는 것을 확인하였고, 이미지, 비디오, 오디오, 3D 복셀 등 다양한 벤치마크 데이터셋에서 우수한 성능을 보임을 실험적으로 입증했습니다. 소스 코드는 https://github.com/aailab-kaist/DDiF 에서 공개됩니다.

시사점, 한계점

시사점:
신경장을 이용한 효율적인 데이터셋 증류 방법 제시
이미지, 비디오, 오디오, 3D 복셀 등 다양한 데이터 유형에 적용 가능성 입증
기존 방법보다 높은 표현력과 성능 달성
소스 코드 공개를 통한 연구 재현성 및 확장성 제공
한계점:
제안된 방법의 실제 적용에 필요한 계산 비용 및 메모리 사용량에 대한 자세한 분석 부족
다양한 데이터 유형에 대한 일반화 성능에 대한 추가적인 연구 필요
특정 유형의 데이터에 대한 최적화된 파라미터 설정에 대한 추가 연구 필요
👍