Este artículo presenta una novedosa técnica de detección que supera las limitaciones de las metodologías existentes para abordar el creciente desafío de los videos generados por IA. Establecemos un marco teórico basado en el análisis de dinámica de segundo orden bajo la mecánica newtoniana y extendemos la característica de diferencia central de segundo orden para la detección de artefactos temporales. Este enfoque revela diferencias fundamentales en la distribución de características de segundo orden entre videos reales y generados por IA, y proponemos un nuevo método de detección, Detección por Diferencia de Diferencias (D3), que no requiere entrenamiento. Validamos la superioridad de D3 en cuatro conjuntos de datos de código abierto (Gen-Video, VideoPhy, EvalCrafter y VidProM), demostrando una mejora del 10,39 % en la precisión promedio con respecto al método existente de mejor rendimiento. Además, demostramos experimentalmente su eficiencia computacional y robustez.