본 논문은 대규모 언어 모델(LLM)이 상관관계와 인과관계를 구분하는 데 어려움을 겪는 문제를 해결하기 위해, 지식 그래프를 구축하여 모델의 사고 과정을 구조화하는 새로운 접근 방식을 제안합니다. 기존의 직접적인 질문 응답 방식 대신, 상관관계 전제를 체계적으로 인코딩하는 구조화된 지식 그래프를 중간 표현으로 활용하여 인과관계 질문에 대한 답변을 도출합니다. Corr2Cause 데이터셋을 사용한 실험 결과, 제안된 방법은 Qwen3-32B 모델의 F1 점수를 32.71에서 48.26으로 크게 향상시켰으며, 정밀도와 재현율 또한 개선되었습니다. 이는 모델의 사고 과정을 구조화하는 것이 인과 추론 능력 향상에 효과적임을 보여줍니다.