본 논문은 추론 과정을 명시적으로 포함하는 대규모 언어 모델(LLM)의 계산 비용을 줄이기 위한 새로운 방법을 제시한다. 기존의 자기일관성 방법은 정확도 향상을 위해 다수의 추론 경로를 생성하여 비용이 많이 들지만, 본 논문에서는 순차적 확률 비율 검정(SPRT)을 활용하여 충분한 일관성이 달성되면 샘플링을 동적으로 중단함으로써 효율성을 높인다. LLM에 적합하도록 SPRT 매개변수를 보정하고, 실험을 통해 자기일관성 방법과 비슷한 정확도를 훨씬 적은 계산 비용으로 달성함을 보여준다. 소스 코드와 데이터셋을 공개하여 재현성을 높였다.