Este artículo propone un novedoso método de detección que aprovecha los artefactos temporales para abordar el creciente problema de la distribución de contenido sintético debido al aumento de los vídeos generados por IA. Establecemos un marco teórico basado en el análisis de dinámica de segundo orden bajo la mecánica newtoniana y utilizamos características de diferencia central de segundo orden para descubrir diferencias fundamentales en la distribución de características de segundo orden entre vídeos reales y generados por IA. Con base en esto, proponemos D3 (Detección por Diferencia de Diferencias), un nuevo método de detección que no requiere entrenamiento. Demostramos experimentalmente que D3 supera a los métodos de vanguardia existentes en cuatro conjuntos de datos de código abierto (Gen-Video, VideoPhy, EvalCrafter y VidProM). Cabe destacar que, en el conjunto de datos GenVideo, nuestro método logra una mejora promedio de la precisión del 10,39 %, lo que demuestra una excelente eficiencia computacional y robustez.