यह शोधपत्र इस बात पर प्रकाश डालता है कि बड़े पैमाने के भाषा मॉडल (LLM) का फ़ाइन-ट्यूनिंग प्रदर्शन प्रशिक्षण डेटा मिश्रण संरचना पर अत्यधिक निर्भर करता है, फिर भी इष्टतम डेटा मिश्रण का चयन करने की प्रक्रिया मैन्युअल और अनुमान-आधारित है। इसलिए, हम TASKPGM का प्रस्ताव करते हैं, जो एक सिद्धांतबद्ध और मापनीय मिश्रण अनुकूलन ढाँचा है जो मार्कोव रैंडम फ़ील्ड्स (MRF) का उपयोग करके ऊर्जा फलन को न्यूनतम करके सतत कार्य अनुपातों का चयन करता है। TASKPGM, जेन्सन-शैनन डाइवर्जेंस और पॉइंटवाइज़ म्यूचुअल इन्फ़ॉर्मेशन जैसे व्यवहारिक अंतरों का उपयोग करके कार्यों के बीच संबंधों का मॉडल बनाता है, जिनकी गणना एकल-कार्य फ़ाइन-ट्यूनिंग मॉडल के पूर्वानुमानित वितरण से की जाती है। यह समूह बाधाओं के अंतर्गत एक बंद-रूप समाधान प्रदान करता है और कार्यों में प्रतिनिधित्व और विविधता को प्रमाणित रूप से संतुलित करता है। यह Llama 2 और Mistral पर MMLU और BIGBench जैसे मूल्यांकन उपकरणों में सुसंगत अनुभवजन्य प्रदर्शन लाभ प्रदर्शित करता है, साथ ही सैद्धांतिक गारंटी (बजट-बाधित वेरिएंट के लिए कमज़ोर सबमॉड्यूलरिटी सहित) भी प्रदान करता है। प्रदर्शन के अलावा, TASKPGM कार्य प्रभाव और मिश्रण संरचना के बारे में व्याख्या योग्य अंतर्दृष्टि प्रदान करता है, जिससे यह कुशल और मजबूत LLM फाइन-ट्यूनिंग के लिए एक शक्तिशाली उपकरण बन जाता है।