본 논문은 대규모 언어 모델(LLM)의 성능 향상을 위해 자동화된 프롬프트 최적화 기법인 ACING을 제시합니다. LLM의 매개변수와 그래디언트에 접근할 수 없는 블랙박스 환경에서도 작동하는 강화 학습 기반 프레임워크인 ACING은 상태 비존재 연속 행동 문제로 프롬프트 최적화를 공식화하여 무한한 프롬프트 공간을 탐색합니다. 실험 결과, ACING은 다양한 작업(instruction-induction, 요약, 사고 연쇄 추론)에서 인간이 작성한 프롬프트보다 성능이 우수한 프롬프트를 76%의 비율로 생성하며, 최고의 자동화 기준 모델 대비 최대 33점, 중간값으로 10점의 성능 향상을 보였습니다. 광범위한 추가 실험을 통해 ACING의 강건성과 효율성을 확인했습니다. 소스 코드는 깃허브에서 공개됩니다.