Este artículo estudia cómo lograr simultáneamente dos propiedades altamente deseables en los modelos modernos de aprendizaje automático: robustez y eficiencia de recursos. Demostramos que las altas tasas de aprendizaje ayudan a lograr tanto la robustez frente a correlaciones espurias como la compacidad de la red. Demostramos que las altas tasas de aprendizaje producen propiedades representacionales deseables, como la utilización de características invariantes, la separabilidad de clases y la escasez de activación, y que son más consistentes en el cumplimiento de estas propiedades que otros hiperparámetros y métodos de regularización. Además de demostrar los efectos positivos de las altas tasas de aprendizaje en diversos conjuntos de datos, modelos y optimizadores de correlaciones espurias, proporcionamos evidencia sólida de que el éxito de las altas tasas de aprendizaje en tareas de clasificación estándar probablemente se deba a su eficacia para combatir correlaciones espurias ocultas/raras en el conjunto de datos de entrenamiento.