본 논문은 부분적으로 관측 가능한 마르코프 의사결정 과정(POMDP)에서의 효율적인 신념 업데이트 문제를 다룬다. 대규모 근사 POMDP 해결사에서 일반적으로 사용되는 순차적 중요도 재샘플링 입자 필터(SIRPF)의 입자 고갈 및 높은 계산 비용 문제를 해결하기 위해, Rao-Blackwellized POMDP (RB-POMDP) 근사 해결사를 제안하고 신념 업데이트와 온라인 계획 모두에 Rao-Blackwellization을 적용하는 일반적인 방법을 제시한다. GPS가 없는 환경에서 목표물로 이동하는 에이전트의 시뮬레이션된 위치 확인 문제에서 POMCPOW 및 RB-POMCPOW 계획자와 함께 SIRPF와 Rao-Blackwellized 입자 필터(RBPF)의 성능을 비교한다. 실험 결과는 RBPF가 적은 입자로 시간 경과에 따라 정확한 신념 근사를 유지할 뿐만 아니라, 구적법 기반 통합과 결합된 RBPF가 동일한 계산 제약 조건 하에서 SIRPF 기반 계획보다 계획 품질을 상당히 향상시킨다는 것을 보여준다.