यह शोधपत्र बड़े पैमाने के भाषा मॉडल (LLM) की जटिल कोड अनुमान क्षमता में सुधार के लिए एक नवीन विधि प्रस्तुत करता है। हालाँकि LLM नियमित कोडिंग कार्यों में अच्छा प्रदर्शन करते हैं, लेकिन प्रोग्राम शब्दार्थ के बारे में गैर-तुच्छ अनुमानों की आवश्यकता वाले जटिल कार्यों में वे विफल हो सकते हैं। इस समस्या का समाधान करने के लिए, यह अध्ययन सिमेंटिक इनक्विटी गेम (SInQ) पर आधारित कोड अनुमान प्रशिक्षण डेटा को कृत्रिम रूप से उत्पन्न करने की एक विधि की खोज करता है। एक जनरेटर एजेंट वास्तविक दुनिया के प्रोग्रामिंग कार्यों के डेटासेट से प्राप्त सिमेंटिक रूप से भिन्न प्रोग्राम वेरिएंट उत्पन्न करता है, और एक मूल्यांकन एजेंट ऐसे इनपुट उदाहरणों की पहचान करता है जो मूल प्रोग्राम और उत्पन्न वेरिएंट के व्यवहार को भिन्न बनाते हैं। दोनों एजेंट एक-दूसरे को अर्ध-प्रतिकूल रूप से प्रशिक्षित करते हैं, और हम प्रदर्शित करते हैं कि यह व्यवस्था सैद्धांतिक रूप से अनंत कम्प्यूटेशनल संसाधनों को मानकर स्व-खेल के माध्यम से असीम रूप से बेहतर हो सकती है। हम बहुभाषी भेद्यता पहचान और पायथन अंतर्निहित पहचानकर्ता विनिमय बेंचमार्क सहित विभिन्न कोड निर्माण और समझ मानकों पर प्रयोगों के माध्यम से प्रस्तावित विधि की प्रभावशीलता को प्रमाणित करते हैं। पूरी तरह से पायथन कोड पर प्रशिक्षित होने के बावजूद, प्रस्तावित विधि C/C++ कोड में भेद्यता पहचान को बेहतर बनाती है और पायथन बिल्ट-इन आइडेंटिफ़ायर एक्सचेंज बेंचमार्क पर महत्वपूर्ण प्रदर्शन लाभ प्राप्त करती है, एक ऐसा बेंचमार्क जहाँ मौजूदा LLMs को कठिनाई होती है। हमने प्रयोग को पुन: प्रस्तुत करने के लिए आवश्यक कोड और उत्पन्न सिंथेटिक डेटा को सार्वजनिक कर दिया है, जिससे अन्य शोधकर्ता LLM को बेहतर बना सकते हैं।