Dans cet article, nous étendons les travaux récents sur l'intégration de l'interprétation causale à la distillation des représentations invariantes dans la distillation des connaissances (KD), en proposant une stratégie de double augmentation qui favorise l'apprentissage de caractéristiques invariantes dans les modèles enseignant et élève. En appliquant différentes augmentations aux modèles enseignant et élève, nous induisons le modèle élève à apprendre des caractéristiques robustes et transférables. Cette stratégie de double augmentation complète la distillation causale invariante pour garantir la stabilité des représentations apprises sur un plus large éventail de variations et de transformations de données. Grâce à des expériences approfondies sur CIFAR-100, nous démontrons l'efficacité de notre méthode et obtenons des résultats compétitifs sur la même architecture KD.