본 논문은 대규모 언어 모델(LLM)의 성능에 중요한 역할을 하는 프롬프트 최적화에 대해 다룹니다. 기존의 프롬프트 최적화 방법들은 고정된 데이터셋을 기반으로 하여 정적인 입력 분포를 가정하고, 반복적인 개선에는 제한적인 지원을 제공합니다. 이에 본 논문에서는 SIPDO(Self-Improving Prompts through Data-Augmented Optimization)라는 폐쇄 루프 프롬프트 학습 프레임워크를 제시합니다. SIPDO는 합성 데이터 생성기를 프롬프트 최적화기와 결합하여, 생성기가 현재 프롬프트의 약점을 드러내는 새로운 예시를 생성하고, 최적화기가 이에 따라 프롬프트를 점진적으로 개선하는 방식으로 작동합니다. 외부 감독이나 새로운 작업에 대한 접근 없이도 프롬프트 성능을 체계적으로 향상시킬 수 있습니다. 질문 응답 및 추론 벤치마크에 대한 실험 결과, SIPDO는 기존 프롬프트 튜닝 방법보다 우수한 성능을 보임을 보여줍니다.