본 논문은 대규모 언어 모델(LLM)이 지식 그래프(KG)를 통합하여 추론 성능을 향상시키려는 시도에 대한 연구를 제시한다. 기존 연구의 한계점인 부정확한 정보 검색 및 추론 실패 문제를 해결하기 위해, 복잡한 질문을 하위 질문으로 분해하고, 각 하위 질문에 대한 답변을 통해 부분적인 추론 경로를 점진적으로 확장하는 다중 홉 지식 그래프 질의응답(KGQA) 프레임워크인 ProgRAG를 제안한다. ProgRAG는 외부 검색기를 통해 후보 증거를 수집하고, LLM을 통해 불확실성을 고려한 가지치기를 수행하며, 하위 질문 답변으로부터 얻은 부분적인 추론 경로를 정리 및 재배열하여 LLM 추론에 최적화된 컨텍스트를 제공한다. 세 개의 데이터셋에 대한 실험 결과, ProgRAG는 기존의 기준선(baseline)을 능가하며, 향상된 신뢰성과 추론 품질을 보여준다.