本文探讨了在大规模神经网络中合并低秩自适应 (LoRA) 所面临的挑战。像 LoRA 这样的参数高效自适应技术的兴起使得模型微调变得更加容易。虽然使用 LoRA 进行模型微调非常高效,但现有的合并方法通常会通过合并全尺寸权重矩阵来牺牲这种效率。本文提出了一个核心空间合并框架,该框架将支持 LoRA 的模型合并在一个共同的对齐基中,显著提高了跨任务的准确率,同时保持了低秩自适应的效率。我们还提供了一个正式的证明,证明投影到核心空间会导致信息丢失,并提供了一个复杂性分析来证明其效率优势。大量的实验结果表明,核心空间显著改进了现有的合并技术,并在视觉和语言任务上都取得了最先进的结果,同时只消耗了极少的计算资源。