본 논문은 대규모 언어 모델(LLM)을 이용한 다단계 추론 과정에서 추론 깊이를 동적으로 조절하는 새로운 방법인 Entro-duction을 제안합니다. 기존의 추론 깊이 자동 결정 방법들의 높은 비용과 유연성 부족 문제를 해결하기 위해, LLM 출력의 엔트로피와 분산 엔트로피를 모니터링하여 모델의 불확실성과 불확실성의 변동을 포착합니다. 관찰된 엔트로피 변화를 기반으로 LLM은 추론 정확도와 탐색 효율성 간의 균형을 맞추기 위해 탐색을 심화, 확장 또는 중지할지 확률적으로 선택합니다. 네 가지 벤치마크 데이터셋에 대한 실험 결과를 통해 Entro-duction의 효과를 입증합니다.