본 논문은 전문 분야에서의 정확성이 부족한 현대 대규모 언어 모델(LLM)의 한계를 해결하기 위해, 지식 그래프(KG)를 활용한 진보적인 다중 턴 대화 데이터셋 생성 프레임워크인 ProKG Dial을 제시합니다. ProKG Dial은 도메인 특정 KG를 활용하여 복잡한 도메인 지식과 관계를 인코딩하고, KG를 의미적으로 응집력 있는 하위 그래프로 분할하여 대상 개체를 중심으로 질문과 답변을 점진적으로 생성합니다. 엄격한 필터링을 통해 높은 대화 품질을 유지하며, 의료 지식 그래프를 사용한 실험 결과, 다양성, 의미적 일관성, 개체 적용 범위 측면에서 생성된 대화의 질적 향상을 보여줍니다. LLM을 생성된 데이터셋으로 미세 조정하여 기준 모델과 비교 평가한 결과, 자동 평가 지표와 사람의 평가 모두에서 ProKG Dial이 대화 품질과 도메인 특정 성능을 상당히 향상시킨다는 것을 확인했습니다.