Cet article aborde le problème de l'équilibre entre efficacité énergétique et performance dans les modèles d'IA/ML, en se concentrant sur un récepteur d'apprentissage profond, DeepRX (basé sur une architecture ResNet entièrement convolutive). Nous évaluons la consommation énergétique de DeepRX en prenant en compte des facteurs tels que les FLOP/Watt et les FLOP/horloge, et vérifions la cohérence entre la consommation énergétique estimée et la consommation énergétique réelle affectée par les schémas d'accès mémoire. Nous étendons la comparaison de la dynamique énergétique pendant l'apprentissage et l'inférence. Notre principale contribution consiste à appliquer la distillation des connaissances (KD) pour entraîner un petit modèle étudiant DeepRX qui émule les performances du modèle enseignant tout en réduisant la consommation énergétique. Nous expérimentons différentes tailles de modèles étudiants, tailles optimales de modèles enseignants et hyperparamètres de KD. Nous mesurons les performances en comparant le taux d'erreur binaire (BER) du modèle distillé et les valeurs du rapport signal sur interférence plus bruit (SINR) d'un modèle entraîné de toutes pièces. Le modèle distillé présente une borne inférieure d'erreur plus faible sur tous les niveaux de SINR, soulignant l'efficacité de la KD pour obtenir des solutions d'IA économes en énergie.