본 연구는 최신 대규모 언어 모델(LLM)의 자기 일관성에서 샘플링된 추론 경로를 늘리는 것의 장단점을 분석한다. 이전 연구에서는 이전 모델에서 여러 추론 체인을 결합하면 결과가 향상되다가 정체기에 도달하는 것을 보여주었다. Gemini 2.5 모델을 HotpotQA 및 Math-500에서 사용하여 현재 모델 조건에서 해당 주장을 재검토했다. 각 구성은 다양한 샘플링된 추론 경로에서 출력을 풀링하고 단일 CoT(Chain-of-Thought) 기준선과 비교했다. 더 큰 모델은 더 안정적이고 일관된 개선 곡선을 보였다. 결과는 과거의 발견과 일치하게 적당한 샘플링 이후 성능 향상이 감소하는 것을 확인했다. 이러한 정체기는 추론 경로 간의 중첩에 의해 발생하는 수익 감소를 시사한다. 자기 일관성은 여전히 유용하지만, 높은 샘플링 구성은 계산 비용에 비해 거의 이점을 제공하지 않는다.