इस पत्र में, हम FLAME का प्रस्ताव करते हैं, जो संसाधन-सीमित क्लाइंट परिवेशों में फ़ेडरेटेड लर्निंग के लिए एक नया ढाँचा है। मौजूदा संसाधन-अनुकूली LoRA फ़ेडरेटेड फ़ाइन-ट्यूनिंग विधियाँ विविध क्लाइंट कम्प्यूटेशनल संसाधनों को समायोजित करने के लिए वैश्विक LoRA मैट्रिसेस के संपीड़ित संस्करणों का उपयोग करती हैं, लेकिन सूचना हानि के कारण प्रदर्शन में गिरावट का सामना करती हैं। FLAME विशेषज्ञों के विरल मिश्रण (SMoE) आर्किटेक्चर पर आधारित है, जो क्लाइंट-साइड अनुकूलनशीलता प्राप्त करने के लिए प्रति क्लाइंट सक्रिय विशेषज्ञों की संख्या में परिवर्तन करते हुए पूर्ण असम्पीडित वैश्विक LoRA मैट्रिसेस को बनाए रखता है। यह एक हल्के पुनर्संतुलन तंत्र और एक सक्रियण-जागरूक एकत्रीकरण योजना के माध्यम से आंशिक विशेषज्ञ सक्रियण के कारण आउटपुट आकार के बेमेल और क्लाइंट के बीच विशेषज्ञ प्रशिक्षण गुणवत्ता में असंतुलन जैसी समस्याओं का समाधान करता है। विभिन्न कम्प्यूटेशनल परिवेशों पर प्रायोगिक परिणाम दर्शाते हैं कि FLAME मौजूदा विधियों से बेहतर प्रदर्शन करता है।