यह शोधपत्र ACING प्रस्तुत करता है, जो बड़े पैमाने के भाषा मॉडल (LLM) के प्रदर्शन को बेहतर बनाने के लिए एक स्वचालित प्रॉम्प्ट अनुकूलन तकनीक है। ACING, एक सुदृढीकरण अधिगम-आधारित ढाँचा है जो ब्लैक-बॉक्स वातावरण में भी काम करता है जहाँ LLM के पैरामीटर और ग्रेडिएंट अप्राप्य होते हैं। यह प्रॉम्प्ट अनुकूलन को एक स्टेटलेस सतत-क्रिया समस्या के रूप में सूत्रबद्ध करता है, जो एक अनंत प्रॉम्प्ट स्पेस की खोज करता है। प्रायोगिक परिणाम दर्शाते हैं कि ACING ऐसे प्रॉम्प्ट उत्पन्न करता है जो विभिन्न कार्यों (निर्देश-प्रेरण, सारांशीकरण और विचार-श्रृंखला अनुमान) में 76% बार मानव-जनित प्रॉम्प्ट से बेहतर प्रदर्शन करते हैं, जिससे सर्वोत्तम स्वचालित बेसलाइन मॉडल की तुलना में 33 अंक तक और 10 अंकों का औसत प्रदर्शन सुधार प्राप्त होता है। व्यापक अतिरिक्त प्रयोग ACING की मजबूती और दक्षता की पुष्टि करते हैं। स्रोत कोड GitHub पर उपलब्ध है।