본 논문은 탐색을 활용하는 모델 기반 강화 학습(RL) 방법론의 획기적인 발전에 기여한 Sequential Monte Carlo (SMC) 알고리즘의 대안으로 제시된 Twice Sequential Monte Carlo Tree Search (TSMCTS)를 소개합니다. SMC는 병렬화가 쉽고 GPU 가속에 적합하지만, 높은 분산과 경로 퇴화로 인해 탐색 깊이가 증가함에 따라 성능이 저하되는 문제가 있습니다. TSMCTS는 이러한 문제를 해결하기 위해 고안되었으며, 분산 감소와 경로 퇴화를 완화하여 SMC의 병렬화 용이성을 유지하면서도 순차적 연산에 대한 확장성을 개선합니다. TSMCTS는 이산 및 연속 환경에서 SMC 기반선 및 널리 사용되는 MCTS의 최신 버전보다 우수한 성능을 보입니다.