Este artículo aborda el problema de equilibrar la eficiencia energética y el rendimiento en modelos de IA/ML, centrándose en un receptor de aprendizaje profundo, DeepRX (basado en una arquitectura ResNet totalmente convolucional). Evaluamos el consumo energético de DeepRX considerando factores como FLOP/vatio y FLOP/reloj, y verificamos la consistencia entre el consumo energético estimado y el consumo energético real afectado por los patrones de acceso a memoria. Ampliamos la comparación de la dinámica energética durante el entrenamiento y la inferencia. Nuestra principal contribución es aplicar la destilación de conocimiento (KD) para entrenar un pequeño modelo de estudiante DeepRX que emula el rendimiento del modelo maestro, reduciendo al mismo tiempo el consumo energético. Experimentamos con diferentes tamaños de modelo de estudiante, tamaños óptimos de modelo maestro e hiperparámetros de KD. Medimos el rendimiento comparando la tasa de error de bit (BER) del modelo destilado y los valores de la relación señal-interferencia más ruido (SINR) de un modelo entrenado desde cero. El modelo destilado muestra un límite inferior de error más bajo en todos los niveles de SINR, lo que destaca la eficacia de KD para lograr soluciones de IA energéticamente eficientes.