Este artículo presenta un método novedoso para monitorear la entropía de las activaciones de redes neuronales convolucionales (CNN) con el fin de abordar su vulnerabilidad a ataques adversarios. A diferencia de los métodos existentes de detección de ataques adversarios que requieren reentrenamiento del modelo, modificación de la arquitectura de red o degradación del rendimiento con entradas normales, nuestro método detecta entradas adversarias detectando cambios en la entropía de activación sin modificar el modelo. Los resultados experimentales con VGG-16 muestran que las entradas adversarias cambian consistentemente la entropía de activación en aproximadamente un 7% en las primeras capas convolucionales, logrando una precisión de detección del 90% y manteniendo las tasas de falsos positivos y falsos negativos por debajo del 20%. Este resultado demuestra que las CNN codifican inherentemente cambios distribucionales en sus patrones de activación, lo que sugiere que la entropía de activación por sí sola puede utilizarse para evaluar la confiabilidad de las CNN. Por lo tanto, este estudio permite el despliegue práctico de sistemas de visión de autodiagnóstico que detectan entradas adversarias en tiempo real sin degradación del modelo.