본 논문은 "fast-slow" 구조를 가진 무한 수평 마르코프 결정 과정(MDP)을 연구한다. 여기서 일부 상태 변수는 빠르게 변화하고("fast states"), 다른 변수는 더 느리게 변화한다("slow states"). 이 구조는 장기간에 걸쳐 높은 빈도로 결정을 내려야 하며, 느리게 변화하는 정보가 최적의 행동을 결정하는 데 중요한 역할을 하는 경우에 흔히 발생한다. 논문은 이러한 MDP를 해결하기 위한 새로운 근사 전략을 제안하며, 이 전략은 "frozen-state" 접근 방식을 사용한다. 이는 하위 레벨 계획 단계에서 slow states를 "freeze"하고, 이후 더 느린 시간 척도에서 진행되는 보조 상위 레벨 MDP에 가치 반복을 적용하는 방식이다. 이론적으로는 frozen-state 접근 방식의 후회를 분석하여 계산 비용과 후회 사이의 균형을 맞추는 방법에 대한 통찰력을 제공한다. 실험적으로는 재고 관리, 그리드월드 문제, 동적 가격 책정 등 세 가지 도메인에서 제안된 방법을 평가하여 계산량을 크게 줄이면서 고품질 정책을 생성함을 보여준다.