본 논문은 대규모 추론 모델(LRMs)의 사고 초안(thinking draft)의 신뢰성을 평가하기 위한 반사실적 개입 프레임워크를 제안합니다. 사고 초안의 신뢰성은 복잡한 문제 해결 능력 향상에 중요한 역할을 하며, 이를 '초안 내 신뢰성'(Intra-Draft Faithfulness)과 '초안-답변 신뢰성'(Draft-to-Answer Faithfulness) 두 가지 측면으로 평가합니다. '초안 내 신뢰성'은 반사실적 단계 삽입을 통해 개별 추론 단계가 후속 단계와 최종 결론에 미치는 인과적 영향을 평가하고, '초안-답변 신뢰성'은 초안의 결론적 논리를 변경하여 최종 답변의 논리적 일관성과 의존성을 평가합니다. 6개의 최첨단 LRM을 대상으로 실험한 결과, 현재 LRM은 중간 추론 단계에 대해 선택적인 신뢰성을 보이며, 초안 결론과 충실하게 일치하지 않는 경우가 빈번함을 보였습니다.