本文提出了一种在新的 Foundation 模型版本中复用先前训练任务的有效方法。为了解决复用现有参数变化(任务向量)时模型间参数空间不匹配的问题,我们重点研究了新模型的梯度代码结构。我们提出了一种名为 GradFix 的新方法,它仅使用少量带标签样本即可近似理想的梯度代码结构,并以此进行知识迁移。GradFix 通过在目标模型中计算少量梯度并屏蔽源任务向量来进行自适应,无需进行额外的微调。通过生成与目标损失梯度局部对齐的更新,这可以有效地将任务向量重新定位到新的预训练模型上。理论上,我们的方法可以保证一阶下降,并在视觉和语言基准测试中展现出优于现有方法的性能提升。