본 논문은 컴퓨터 비전 연구를 실제 시나리오에 적용하기 위한 중요한 단계인, 정렬된 시퀀스 또는 정렬되지 않은 이미지 컬렉션으로부터의 고밀도 3D 장면 재구성을 다룹니다. DUSt3R의 패러다임을 따라, 본 연구는 고밀도 스트리밍 3D 재구성을 목표로 하는 온라인 프레임워크인 Point3R을 제안합니다. Point3R은 현재 장면의 3D 구조와 직접 연결된 명시적 공간 포인터 메모리를 유지합니다. 이 메모리의 각 포인터는 특정 3D 위치에 할당되어 글로벌 좌표계에서 주변의 장면 정보를 집계하여 변화하는 공간 특징을 생성합니다. 최신 프레임에서 추출된 정보는 이 포인터 메모리와 명시적으로 상호 작용하여 현재 관측값을 글로벌 좌표계에 고밀도로 통합할 수 있게 합니다. 3D 계층적 위치 임베딩을 설계하여 이 상호 작용을 촉진하고, 포인터 메모리가 균일하고 효율적이도록 간단하면서도 효과적인 융합 메커니즘을 설계했습니다.