본 논문은 LLM(Large Language Model)의 프롬프트 민감성 문제를 해결하기 위해, 각 입력에 맞춰진 프롬프트를 생성하는 "GPS (General-Purpose, Per-Sample Prompting)" 방법을 제안합니다. GPS는 특정 작업에 대한 튜닝 없이, 보편적으로 적용 가능하며, 강화 학습을 통해 훈련됩니다. 또한, 최소 베이즈 위험 해독(Minimum Bayes Risk decoding)을 사용하여 추론을 안정화합니다. 실험 결과, GPS는 텍스트 단순화, 요약, 분류 등 다양한 작업에서 경쟁력 있는 성능을 보이며, 특히 in-domain prompting에서는 SOTA(State-of-the-Art) 성능을 달성합니다.