본 논문은 대규모 언어 모델(LLM)의 다단계 추론 과정에서 추론 깊이를 자동으로 결정하는 기존 방법들의 높은 비용과 유연성 부족 문제를 해결하기 위해, 엔트로피 기반 탐색 깊이 전도(Entro-duction) 방법을 제안한다. Entro-duction은 LLM의 출력 엔트로피와 분산 엔트로피를 모니터링하여 다단계 추론 중 탐색 깊이를 동적으로 조절한다. LLM은 두 지표를 통해 모델의 불확실성과 불확실성 변동을 파악하고, 그 변화를 바탕으로 탐색을 심화, 확장 또는 중지할지 확률에 따라 선택함으로써 추론 정확도와 탐색 효율성 간의 균형을 맞춘다. 네 개의 벤치마크 데이터셋에 대한 실험 결과를 통해 Entro-duction의 효과를 보여주고, 구성 요소별 실험 및 분석을 통해 성능 기여도를 논의한다.