本文提出了一种以数据为中心的新范式,旨在优化未标记数据,从而提升深度学习的效率和可持续性。我们突破了现有以模型为中心的方法的局限性,并提出了 CoOpt,这是一个高效的并行框架,可将知识编码到数据本身中。CoOpt 分发未标记数据,并利用公开可用的任务无关模型来实现可扩展、可重用且可持续的学习流程。我们在 Tiny-ImageNet 和 ImageNet-1K 数据集上分别实现了 13.6% 和 6.8% 的性能提升,学习加速分别达到 $1.94 \times $ 和 $1.2 \times$。