본 논문은 대규모 언어 모델(LLM)의 오류와 환각 문제를 해결하기 위해, LLM의 내부 행동을 기반으로 출력의 신뢰성을 효과적이고 효율적으로 검증하는 방법을 제시합니다. 특히, 입력 문제와 출력 추론 경로 간의 상관관계 행렬의 랭크가 추론 정확도를 나타내는 강력한 지표임을 발견하고, 이를 활용한 Self-Indicator 방법을 제안합니다. 이 방법은 별도의 모델 훈련이나 복잡한 프롬프트 없이 LLM 자체만으로 작동하며, 다른 검증 방법보다 적은 계산 비용으로 성능 향상을 이끌어냅니다.