고차원 연속 관측(예: 카메라 이미지)을 갖는 부분적으로 관측 가능한 마르코프 의사결정 과정(POMDP) 해결은 많은 실제 로봇 공학 및 계획 문제에 필요하다. 최근 연구에서는 기계 학습 확률 모델을 관측 모델로 제안했지만, 현재 온라인 배포에는 계산 비용이 너무 많이 든다. 본 논문은 계획을 위한 단순화된 관측 모델 사용의 함의를 다루면서, 해결책의 질에 대한 공식적인 보장을 유지한다. 주요 기여는 단순화된 모델의 통계적 총 변이 거리에 기반한 새로운 확률적 경계이다. 본 논문은 최근 입자 신념 MDP 농도 경계의 결과를 일반화하여 단순화된 모델을 사용한 경험적 계획 값으로부터 원래 모델에 대한 이론적 POMDP 값을 경계한다는 것을 보여준다. 계산은 오프라인 및 온라인 부분으로 분리될 수 있으며, 계획 중에 비용이 많이 드는 모델에 전혀 액세스할 필요 없이 공식적인 보장을 얻는다. 마지막으로, 시뮬레이션을 통해 기존 연속 온라인 POMDP 솔버의 루틴에 경계를 통합하는 방법을 보여준다.