En este artículo, proponemos FLAME, un nuevo marco para el aprendizaje federado en entornos de cliente con recursos limitados. Los métodos actuales de ajuste fino federado de LoRA adaptables a los recursos utilizan versiones comprimidas de matrices globales de LoRA para acomodar diversos recursos computacionales del cliente, pero presentan una degradación del rendimiento debido a la pérdida de información. FLAME se basa en la arquitectura de mezcla dispersa de expertos (SMoE), que mantiene las matrices globales de LoRA completas sin comprimir, a la vez que varía el número de expertos activados por cliente para lograr la adaptabilidad del lado del cliente. Aborda problemas como la discrepancia en el tamaño de salida debido a activaciones parciales de expertos y el desequilibrio en la calidad del entrenamiento de expertos entre clientes mediante un mecanismo de reequilibrio ligero y un esquema de agregación que tiene en cuenta la activación. Los resultados experimentales en diversos entornos computacionales demuestran que FLAME supera a los métodos existentes.