대규모 언어 모델(LLM)은 다양한 추론 및 생성 작업에서 인상적인 능력을 보여주지만, 인과 관계를 식별하는 능력은 부족하다는 연구 결과가 있다. 본 논문에서는 LLM이 관측 데이터 대신 변수 이름의 의미에 의존하여 인과 관계를 파악하려 한다는 점을 발견했다. 기존 인과 발견 알고리즘의 출력을 프롬프트로 제공했지만, 오히려 성능이 저하되는 현상을 확인했다. 이를 해결하기 위해, 지도 학습을 통해 LLM이 기존 인과 발견 알고리즘의 출력을 효과적으로 활용하도록 돕는 CARE 프레임워크를 제안했다. CARE를 통해 미세 조정된 Qwen2.5-1.5B 모델은 기존 인과 발견 알고리즘과 더 큰 규모의 최신 LLM보다 뛰어난 성능을 보였다.