本文提出了正交残差更新 (ORU) 来克服传统残差连接的局限性。传统方法倾向于直接将模块的输出添加到输入流,从而强化或调整现有方向,而本文提出的方法则通过仅向输入流添加正交分量来诱导模块学习新的表示方向。这能够实现更丰富的特征学习和更高效的训练。我们通过实验证明,我们的方法在各种架构(例如 ResNetV2 和 Vision Transformer)以及各种数据集(例如 CIFAR、TinyImageNet 和 ImageNet-1k)上提高了泛化准确率和训练稳定性。例如,我们将 ViT-B 在 ImageNet-1k 上的 top-1 准确率提高了 4.3%。