본 논문은 공간적 및 시간적으로 일관된 방식으로 우연히 캡처된 단안 비디오를 효율적으로 표현하는 문제를 다룹니다. 기존 접근 방식은 주로 비디오를 시공간 픽셀의 집합으로 취급하는 2D/2.5D 기술에 의존하지만, 시간적 일관성과 명시적인 3D 구조의 부재로 인해 복잡한 움직임, 폐색 및 기하학적 일관성에 어려움을 겪습니다. 본 논문에서는 단안 비디오를 동적 3D 세계의 투영으로 보는 데서 영감을 얻어 시공간에서 가우시안 기본 요소의 연속적인 흐름을 통해 비디오를 고유한 3D 형태로 표현하는 것을 탐구합니다. NutWorld라는 새로운 프레임워크를 제안하는데, 이는 단일 전방 패스에서 단안 비디오를 동적 3D 가우시안 표현으로 효율적으로 변환합니다. NutWorld의 핵심에는 구조화된 시공간 정렬 가우시안(STAG) 표현이 도입되어 효과적인 깊이 및 흐름 규제를 통해 최적화 없는 장면 모델링을 가능하게 합니다. 포괄적인 실험을 통해 NutWorld가 높은 충실도의 비디오 재구성 품질을 달성하는 동시에 실시간으로 다양한 다운스트림 애플리케이션을 가능하게 함을 보여줍니다. 소스 코드는 https://github.com/Nut-World/NutWorld 에서 확인할 수 있습니다.