본 논문은 오프라인 강화학습에서 분포 이동 문제를 해결하기 위해 상태 재구성 기능 학습을 확산 정책에 통합한 새로운 방법인 SRDP(State Reconstruction for Diffusion Policies)를 제안합니다. SRDP는 일반화 가능한 상태 표현을 학습하여 OOD(out-of-distribution) 상태로 인한 분포 이동을 완화합니다. 2D 다중 모드 상황적 밴딧 환경(실제 UR10 로봇 및 시뮬레이션)과 표준 연속 제어 벤치마크(D4RL)에서 기존 알고리즘과 비교하여 OOD 일반화 및 빠른 수렴을 보여줍니다. 특히, 상태 재구성의 중요성을 ablation study를 통해 입증하고, 특히 상태 공간의 다양한 영역이 제거된 희소 연속 제어 탐색 작업에서 경쟁 기준 모델보다 167% 향상된 성능을 달성합니다.