대규모 언어 모델(LLM)의 추론 능력을 훈련 비용이나 과도한 테스트 시간 샘플링 없이 향상시키기 위해, 제안된 솔루션을 생성하기 전에 모델이 제공된 후보 답변(사소하거나 무작위 답변 포함)을 검증하도록 유도하는 Verification-First (VF) 전략을 소개합니다. 이 접근 방식은 인지적으로 더 쉽고 표준적인 Chain-of-Thought (CoT)와 상호 보완적인 "역방향 추론" 프로세스를 촉발하여 모델의 비판적 사고를 효과적으로 유도하여 논리적 오류를 줄입니다. 또한 VF 전략을 Iter-VF로 일반화하여 모델의 이전 답변을 사용하여 검증-생성 프로세스를 반복하는 순차적 테스트 시간 스케일링(TTS) 방법을 개발했습니다. 다양한 벤치마크(수학적 추론부터 코딩, 에이전트 작업까지)와 다양한 LLM(오픈 소스 1B에서 최첨단 상업용 모델까지)에 대한 광범위한 실험 결과, 무작위 답변을 사용한 VF가 최소한의 계산 오버헤드로 표준 CoT보다 일관되게 우수하며, Iter-VF가 기존 TTS 전략보다 우수함을 확인했습니다.