본 논문은 대규모 언어 모델(LLM)의 추론 능력과 문제 해결 정확도를 크게 향상시키는 빔 서치와 같은 테스트 시간 계산 방법의 효율성을 높이는 새로운 추론 기법인 엔트로피 게이트 분기(Entropy-Gated Branching)를 제안합니다. 기존 빔 서치는 모델이 이미 높은 확신을 보이는 저 다양성 분기를 탐색하는 데 많은 계산 자원을 낭비하는 반면, 본 논문에서는 불확실한 추론 단계의 작은 하위 집합이 최종 예측 정확도에 불균형적으로 큰 영향을 미친다는 점을 관찰했습니다. 따라서 엔트로피를 게이트 메커니즘으로 활용하여 불확실성이 높은 지점에서만 예측 시퀀스를 선택적으로 확장함으로써 계산 자원을 동적으로 할당하는 방법을 제시합니다. 외부 피드백 모델을 사용하여 후보 분기를 순위 매기고 가지치기를 수행합니다. 수학 및 금융 추론 벤치마크에 대한 실험 결과, 이 전략은 표준 추론보다 정확도를 22.6% 향상시키면서 기존 빔 서치보다 37% 빠른 속도로 유사하거나 더 높은 성능을 달성했습니다. 이는 추론 중 동적 자원 할당이 효율성과 효과를 크게 향상시킬 수 있음을 보여줍니다.