본 논문은 대규모 언어 모델(LLM), 특히 소형 모델이 복잡한 추론 작업에서 어려움을 겪는 문제를 해결하기 위해, 훈련 없이 단일 LLM을 효과적인 추론 시 앙상블로 변환하는 새로운 프레임워크인 DIPPER를 소개합니다. DIPPER는 최적화되고 다양한 프롬프트 세트를 병렬로 모델에 제공하여 다양한 추론 경로를 이끌어내 성능 향상을 달성합니다. MATH와 같은 추론 벤치마크에서 DIPPER를 통해 Qwen2-MATH-1.5B 모델 3개의 앙상블이 더 큰 7B 모델보다 우수한 성능을 보임을 실험적으로 입증합니다.