Cet article propose la communication sémantique robuste basée sur la distillation des connaissances (RKD-SC), un nouveau cadre pour la conception de systèmes de communication sémantique (SC) basés sur des modèles à grande échelle (LSM), efficaces et robustes au bruit de canal. RKD-SC utilise l'algorithme de recherche d'architecture différentiable légère basée sur la distillation des connaissances (KDL-DARTS) et l'algorithme de distillation des connaissances robuste (RKD) en deux étapes pour réduire la taille du modèle et améliorer la robustesse au bruit de canal tout en maintenant les performances du LSM. De plus, il introduit un bloc de transformateur sensible au canal (CAT) entraîné avec des sorties de longueur variable dans diverses conditions de canal afin d'améliorer la résilience aux dégradations du canal. Des simulations approfondies sur des tâches de classification d'images démontrent que le cadre RKD-SC réduit considérablement les paramètres du modèle tout en maintenant des performances élevées et en démontrant une robustesse supérieure par rapport aux méthodes existantes.