본 논문은 Self-consistency (SC) 기법의 확장성 및 샘플 효율성을 분석하고, 이를 바탕으로 새로운 SC 변형 기법인 Blend-ASC를 제안합니다. SC는 여러 답변을 생성하고 가장 빈번한 답변을 선택하는 방식으로, 대규모 언어 모델(LLM)의 성능을 향상시키는 데 사용됩니다. 본 연구는 모드 추정 및 투표 이론을 활용하여 SC의 확장성 및 샘플 효율성을 이론적으로 분석하고, 다양한 샘플링 방식을 비교합니다. Blend-ASC는 질문에 동적으로 샘플을 할당하여 기존 SC 기법 대비 뛰어난 샘플 효율성을 보이며, 하이퍼파라미터 없이 임의의 샘플 예산에 적용 가능합니다.