이 논문은 대규모 언어 모델(LLM)의 환각 및 불일치 문제를 해결하기 위해 LLM과 조합 추론을 결합하는 새로운 접근 방식을 제안합니다. 연구는 다양한 프롬프트 전략이 하향식 기호 추론을 위한 신뢰도 값을 얼마나 잘 추정하는지 탐색하며, 기호 추론을 통합하면 프롬프트만 사용하는 것보다 일관되고 정확한 예측을 달성함을 보여줍니다. 또한, 구조화된 학습 목표를 이용한 보정 및 미세 조정을 통해 복잡한 작업에서 성능을 더욱 향상시킬 수 있음을 입증합니다.