본 논문은 지식 그래프 질의응답(KGQA) 과제에서 최신 대규모 언어 모델(LLM)의 성능을 개선하기 위한 새로운 프레임워크인 RTSoG(Reward-guided Tree Search on Graph)를 제안한다. 기존의 GraphRAG 방식은 최적의 추론 경로 탐색에만 집중하여 기존 경로 활용을 간과하고, 복잡한 질의 의미로 인해 부정확한 경로를 검색하는 문제가 있다. RTSoG는 복잡한 질의를 단순한 하위 질의로 분해하고, 보상 모델로 안내되는 SC-MCTS(Self-Critic Monte Carlo Tree Search)를 이용하여 가중치가 부여된 추론 경로를 반복적으로 검색한다. 마지막으로 가중치에 따라 추론 경로를 결합하여 최종 답변을 생성한다. 네 개의 데이터셋에 대한 실험 결과, RTSoG는 기존 최고 성능 모델 대비 GrailQA와 WebQSP에서 각각 8.7%, 7.0%의 성능 향상을 달성했다.