本論文は,AI生成ビデオの増加に伴う合成コンテンツの拡散問題に対する解決策で,時間的アーティファクトを利用した新しい検出方法を提示する。ニュートン力学の下の二次動力学分析に基づいて理論的枠組みを構築し、二次中心差分特徴を利用して、実際のビデオとAI生成ビデオの間の二次特徴分布の根本的な違いを明らかにする。これに基づいて、訓練を必要としない新しい検出方法であるD3(Detection by Difference of Differences)を提案し、4つのオープンソースデータセット(Gen-Video、VideoPhy、EvalCrafter、VidProM)で従来の最高性能方法より優れた性能を示すことを実験的に立証する。特にGenVideoデータセットでは10.39%の平均精度向上を見せ、演算効率性と堅牢性も優れていることを確認した。