基于提示的持续学习 (CL) 提供了一种参数高效的方法,用于将大规模语言模型 (LLM) 适配到任务序列。然而,大多数现有方法依赖于任务感知推理,并维护着不断增长的任务特定提示集,这导致了两大挑战:(1) 在任务无关推理下,性能相对于先前任务显著下降;(2) 随着任务序列的增长,由于提示记忆的积累,可扩展性有限。本文提出了 GRID,一个旨在应对这些挑战的集成框架。GRID 集成了一种解码机制,该机制利用代表性输入来改进回传、自动任务识别和约束解码。此外,它采用基于梯度的提示选择策略,将信息量较少的提示压缩成单一统一的表示,从而确保可扩展且内存高效的持续学习。在长序列和负迁移基准上进行的大量实验表明,GRID 提高了平均准确率和回传,实现了具有竞争力的回传,并显著降低了提示内存占用。