본 논문은 사고 연쇄(Chain-of-Thought, CoT) 프롬프팅의 성능이 다양한 추론 작업에서 다르게 나타나는 현상을 연구합니다. 기존 연구는 CoT를 평가하려 했지만, CoT에 영향을 미치는 패턴에 대한 심층 분석에는 미흡했습니다. 이 논문에서는 효과성과 신뢰성이라는 관점에서 CoT 성능을 연구합니다. 효과성 측면에서는 문제 난이도, 정보 획득, 정보 흐름 등 CoT 효과성에 영향을 미치는 주요 요인을 파악합니다. 신뢰성 측면에서는 질문, CoT, 답변 간의 정보 상호작용에 대한 공동 분석을 통해 신뢰할 수 없는 CoT 문제를 해석합니다. 그 결과, LLM이 답변을 예측할 때 CoT에 누락된 정답 정보를 질문에서 불러올 수 있다는 것을 보여줍니다. 마지막으로, 질문에서 추가 정보를 불러와 CoT 생성을 향상시키고 정보 획득을 기반으로 CoT를 평가하는 새로운 알고리즘을 제안합니다. 광범위한 실험을 통해 제안된 접근 방식이 CoT의 신뢰성과 효과성을 모두 향상시킨다는 것을 보여줍니다.