Chain of Thought (CoT) 추론은 LLM 및 MLLM에서 뛰어난 추론 능력을 보여주지만, 중간 단계의 오류 누적으로 인해 신뢰성이 저하될 수 있다. 본 논문은 모델의 내재된 진실성 인코딩을 활용하여 CoT 추론 정확도를 보정하는 새로운 접근 방식을 제시한다. 특정 attention head 활성화가 CoT의 추론 단계의 진실성을 신뢰성 있게 반영한다는 것을 발견했다. 이를 기반으로, 진실성에 민감한 활성화를 사용하여 각 추론 단계의 정확성을 평가하는 confidence predictor를 훈련하고, 빔 서치를 통해 가장 타당한 추론 경로를 동적으로 선택한다. 실험 결과, 수학, 기호, 상식 추론 작업에서 기존 SOTA(Few-Shot CoT, Self-Consistency, Self-Evaluation Guided Beam Search 등)를 크게 능가하는 성능을 보였으며, 단일 모달 및 멀티 모달 환경 모두에서 우수한 정확성과 신뢰성을 입증했다. 또한 대규모 추론 모델에서도 이 접근 방식을 검증하여 특수화된 추론 모델에도 적용 가능함을 확인했다. 모델의 자기 수정 능력이 CoT 추론에서 갖는 역할도 탐구했다.