联邦学习 (FL) 允许在无需分布式数据共享的情况下进行协同模型训练,为了满足其计算和通信需求,本文提出了基于组合汤普森采样的联邦稳健剪枝 (FedRTS) 框架。FedRTS 是一种新颖的框架,旨在即使在本地数据不平衡和部分客户端参与的环境中也能构建稳健的稀疏模型。FedRTS 通过基于汤普森采样的调整 (TSAdj) 机制,利用基于稳定长期信息的概率决策,而非像现有方法那样依赖不稳定的短期信息,从而提升模型的稳健性和性能。实验结果表明,FedRTS 在计算机视觉和自然语言处理任务中取得了最佳性能,并且在数据异构和部分客户端参与的场景下尤其能够有效降低通信成本。