본 논문은 고전적 계획 수립을 위한 Multi-Armed Bandit (MAB) 기반 Monte-Carlo Tree Search (MCTS)의 효율적인 구현을 연구한다. MCTS의 약점 중 하나인 노드 확장 선택 시간을 개선하기 위해, 각 선택된 리프 노드에서 확장 예산을 d에 비례하여 사용하는 최선 우선 탐색을 MCTS에 이중 레벨 방식으로 적용한다. 이는 노드 선택에 대한 상환 시간 복잡도를 O(1)로 달성하게 하며, 기존 큐 기반 OPEN 목록과 동등한 성능을 가진다. 또한, 액션 선택 단계를 줄이고 성능을 더욱 향상시키는 트리 축소 기법을 도입한다.