本文介绍了一项关于大规模语言模型 (LLM) 在敏感领域(例如心理健康)的隐私保护适配性研究。为了平衡模型效用、安全性和严格保密性,我们提出了 FedMentor,这是一个集成了低秩自适应 (LoRA) 和领域感知差分隐私 (DP) 的联邦微调框架。FedMentor 允许每个客户端(领域)应用与其数据敏感度成比例的自定义 DP 噪声尺度,并且当效用低于阈值时,服务器会自适应地降低噪声。在三个心理健康数据集上的实验表明,与标准联邦学习 (FL) 相比,FedMentor 在保持效用的同时提高了安全性并降低了毒性。该框架可扩展到在单个 GPU 客户端上具有高达 17 亿个参数的主干,每轮所需的通信量不到 173 MB。