본 논문은 제로샷 사고연쇄(CoT) 방식의 한계를 극복하기 위해, 두 개의 언어 모델을 활용하는 새로운 프롬프팅 기법인 PREP을 제안합니다. PREP은 첫 번째 언어 모델(LM1)이 관련 정보를 생성하고, 두 번째 언어 모델(LM2)이 해당 정보와 사용자 질문을 바탕으로 답변하는 방식으로 동작합니다. 이를 통해 언어 모델의 지시사항 따르기 능력을 더욱 효과적으로 활용하고, 다양한 질문응답 과제에 적용 가능하며, 특정 영역에 대한 프롬프트 엔지니어링이 필요하지 않습니다. 부품과 재료 구성을 명시하는 방대한 개략도 데이터셋에서 도출한 100개의 질문응답 데이터셋을 사용하여 PREP을 개발하였으며, 해당 데이터셋과 세 개의 기존 상식 추론 데이터셋에서 실험을 진행, 기존 방법들보다 높은 정확도를 달성했습니다.