本文提出了一个参数高效的对抗性混合专家 (MoE) 框架 MoE-CL,用于大规模语言模型 (LLM) 的持续学习 (CL),以应对工业环境中多样化且不断发展的任务。为了解决现有 CL 方法的关键弱点——遗忘问题,MoE-CL 采用双专家设计,利用特定任务的专家和共享专家。特定任务的专家保留特定于每个任务的知识,而共享专家则促进跨任务的迁移。此外,本文还集成了一个基于生成对抗网络 (GAN) 的任务感知鉴别器,以防止共享专家传递与任务无关的噪声。通过对抗性学习,共享专家学习到广义的表示,而特定任务的专家保留特定于任务的细节,从而在知识保留和跨任务泛化之间取得平衡。我们通过在公共 MTL5 基准、Tencent3 工业基准以及腾讯视频平台内容合规性审查系统上的 A/B 测试中进行实验,验证了 MoE-CL 的有效性和实用性。