本文提出了基于注意力机制的双重压缩 (ADC),这是一种新颖的通信高效的 SL 框架,可减少在分布式拆分学习 (SL) 中传播视觉转换器 (Vision Transformer) 中间激活所需的通信开销。ADC 集成了两种并行压缩策略。第一种策略根据在客户端最终层计算的平均注意力得分来合并相似样本的激活。该策略允许在不影响泛化能力或降低最终结果的情况下,对来自不同类别的样本进行类无关的合并。第二种策略沿袭第一种策略,并通过丢弃最不重要的标记来进一步降低通信成本。结合这两种策略,不仅可以减少前向传播过程中传输的数据量,还可以自然地压缩梯度,从而无需额外的调优或梯度近似即可进行完整的模型训练。仿真结果表明,基于注意力机制的双重压缩在保持高精度的同时,显著降低了通信开销,其性能优于最先进的 SL 框架。