Cet article analyse comment la régularisation invariante peut être utilisée pour résoudre le compromis entre robustesse et précision dans l'apprentissage antagoniste, et propose l'apprentissage antagoniste régularisé par représentation asymétrique (ARAT), une nouvelle méthode qui surmonte ce compromis. Nous identifions les problèmes des méthodes de régularisation invariante existantes, tels que les conflits de gradient entre les objectifs invariants et de classification, et les problèmes de distribution mixte causés par les différences de distribution entre les entrées propres et antagonistes. L'ARAT aborde le problème de conflit de gradient en utilisant une perte invariante asymétrique, une opération d'arrêt de gradient et des prédicteurs, et aborde le problème de distribution mixte grâce à une architecture de normes fractionnées. Les résultats expérimentaux montrent qu'ARAT surpasse les méthodes existantes, offrant une nouvelle perspective pour la défense basée sur la distillation des connaissances.