본 논문은 결정적 마르코프 의사결정 과정(DMDPs)에서 평균 지급(limit-average) 목표를 가진 DMDPs를 푸는 데 사용되는 하워드의 정책 반복 알고리즘의 하한 경계를 개선하는 연구이다. DMDPs는 현재 행동에 의해 결과와 미래의 가능한 행동이 결정적으로 결정되는 의사결정을 위한 수학적 틀이며, 각 단계에서 제어기는 나가는 간선을 선택하는 유한 가중치 방향 그래프로 볼 수 있다. 기존 연구에서는 하워드 알고리즘의 최고 상한 경계는 지수적이었고, 하한 경계는 입력 크기 I에 대해 $\tilde{\Omega}(\sqrt{I})$ 이었으나, 본 논문은 이 하한 경계를 $\tilde{\Omega}(I)$ 로 개선하였다.