DyVec 是上下文衍生向量 (ICV) 方法的改进版本,该方法从大规模语言模型 (LLM) 中提取与任务相关的表征,并在推理过程中重新注入这些表征。为了解决现有 ICV 方法的 Limitations 问题,DyVec 结合了穷举查询轮换 (EQR) 策略来提取稳健的语义密集潜在表征,应用动态潜在分割和注入技术根据任务复杂度自适应地划分表征,并利用基于强化学习 (REINFORCE) 的优化算法来学习每个分段的最佳注入位置。实验结果表明,DyVec 的表现优于少样本 ICL、LoRA 以及之前基于 ICV 的方法。