本文提出了 FLEx(基于个性化专家的联邦法学硕士 (LLM)),这是一种用于大规模语言模型 (LLM) 联邦学习 (FL) 的新型框架。FLEx 利用混合专家 (MoE) 架构,在数据高度异构的环境中实现模型个性化。具体而言,FLEx 利用基于 MoE 的预训练 LLM 来降低通信开销、保存专家知识,并引入专家嫁接机制来构建针对特定客户端的个性化专家。在各种非独立同分布 (IID) 指令调优数据集上的实验表明,FLEx 的性能优于现有的基于联邦学习的模型,并在基于知识的基准 MMLU 上表现出较高的知识保存率。