본 논문은 심층 학습 응용 분야에서 대규모 비디오 데이터 처리와 관련된 계산상의 어려움을 해결하기 위한 중요한 기술인 비디오 데이터셋 축약에 대해 다룹니다. 기존의 이미지 데이터셋 축약 방법과 달리, 비디오 데이터는 공간적 내용과 시간적 동역학 간의 복잡한 상호 작용으로 인해 고유한 과제를 제시합니다. 본 논문에서는 PRISM (Progressive Refinement and Insertion for Sparse Motion)이라는 새로운 비디오 데이터셋 축약 방법을 제시합니다. PRISM은 정적 콘텐츠와 동적 모션을 분리하는 기존 방법과 달리, 두 요소 간의 필수적인 상호 의존성을 보존합니다. 프레임 간의 기울기 관계를 고려하여 동작의 움직임을 완전히 수용하면서 성능은 향상시키고 저장 용량은 줄이는 방식으로 프레임을 점진적으로 개선하고 삽입합니다. 표준 비디오 동작 인식 벤치마크에 대한 광범위한 실험을 통해 PRISM이 기존의 분리된 접근 방식보다 우수한 성능을 보이며, 자원 제약 환경에 적합한 압축된 표현을 유지함을 보여줍니다.