본 논문은 대규모 언어 모델(LLM)의 사실적 일관성 문제를 해결하기 위해 추론 과정에서 지식 그래프(KG)를 동적으로 구축하고 확장하는 새로운 프레임워크를 제안합니다. 제안하는 방법은 질문으로부터 시드 KG를 추출하고, LLM의 내부 지식을 사용하여 반복적으로 확장하며, 외부 검색을 통해 선택적으로 정제하여 사실적 범위를 넓히고 부정확성을 수정합니다. 이 프레임워크는 세 가지 사실 기반 QA 벤치마크에서 기존 방법 대비 일관된 성능 향상을 보였습니다.