यह शोधपत्र जनरेटिव प्री-ट्रेन्ड ट्रांसफॉर्मर्स (GPT) पर आधारित बड़े पैमाने के भाषा मॉडल (LLM) के लिए एनसेम्बलिंग तकनीकों का परीक्षण करता है। व्यक्तिगत LLM अक्सर असंगत आउटपुट उत्पन्न करते हैं और पूर्वाग्रह प्रदर्शित करते हैं, जिससे विविध भाषाई पैटर्नों का पर्याप्त रूप से प्रतिनिधित्व करने की उनकी क्षमता सीमित हो जाती है। इसके अलावा, कई शक्तिशाली LLM बंद-स्रोत हैं, जिससे डेटा गोपनीयता संबंधी चिंताओं के कारण उनके औद्योगिक अनुप्रयोग सीमित हो जाते हैं। पाठ निर्माण में उनकी सफलता के आधार पर, यह शोधपत्र कोड निर्माण के लिए LLM एनसेम्बल तकनीकों का परीक्षण करता है और उन्हें सात प्रमुख दृष्टिकोणों में वर्गीकृत करके उनकी क्षमताओं का विश्लेषण करता है: भारित विलय, ज्ञान संलयन, विशेषज्ञ मिश्रण, रिवॉर्ड एनसेम्बल, आउटपुट एनसेम्बल, रूटिंग और कैस्केडिंग। हम प्रमुख लाभों पर प्रकाश डालते हैं, जिनमें बेहतर विविधता प्रतिनिधित्व, बेहतर आउटपुट गुणवत्ता और बढ़ी हुई अनुप्रयोग लचीलापन शामिल हैं। यह दृष्टिकोण व्यावहारिक कार्यों के लिए मॉडल चयन में सहायता करता है और मल्टीमॉडल LLM में एनसेम्बल रणनीतियों के विस्तार की नींव रखता है।