Este artículo presenta un análisis teórico y una verificación experimental de la interacción entre la compresibilidad de las redes neuronales (p. ej., escasez a nivel neuronal, compresibilidad espectral, etc.) y su robustez frente a ataques adversarios. Demostramos que las redes neuronales comprimidas introducen un pequeño número de direcciones de alta sensibilidad en el espacio de representación, que pueden ser explotadas por atacantes adversarios para generar interferencia efectiva. Proporcionamos límites simples pero informativos sobre la robustez de $L_\infty$ y $L_2$, y demostramos que las vulnerabilidades surgen independientemente del método de compresión (p. ej., regularización, sesgo estructural, dinámica de aprendizaje implícita, etc.). Evaluaciones experimentales en tareas sintéticas y reales confirman las predicciones teóricas y muestran que estas vulnerabilidades persisten bajo entrenamiento adversario y aprendizaje por transferencia, contribuyendo al surgimiento de la interferencia adversaria universal. En conclusión, revelamos una tensión fundamental entre la compresibilidad estructural y la robustez, y sugerimos nuevas direcciones para el diseño de modelos eficientes y seguros.