यह शोधपत्र एक नवीन संसूचन तकनीक प्रस्तुत करता है जो AI-जनित वीडियो की बढ़ती चुनौती का समाधान करने के लिए मौजूदा संसूचन पद्धतियों की सीमाओं को पार करती है। हम न्यूटोनियन यांत्रिकी के अंतर्गत द्वितीय-क्रम गतिकी विश्लेषण पर आधारित एक सैद्धांतिक ढाँचा स्थापित करते हैं और कालिक विरूपण साक्ष्य संसूचन के लिए द्वितीय-क्रम केंद्रीय अंतर विशेषता का विस्तार करते हैं। यह दृष्टिकोण वास्तविक और AI-जनित वीडियो के बीच द्वितीय-क्रम विशेषताओं के वितरण में मूलभूत अंतरों को प्रकट करता है, और हम एक नई संसूचन विधि, अंतर के अंतर द्वारा संसूचन (D3) का प्रस्ताव करते हैं, जिसके लिए किसी प्रशिक्षण की आवश्यकता नहीं होती है। हम चार ओपन-सोर्स डेटासेट (Gen-Video, VideoPhy, EvalCrafter, और VidProM) पर D3 की श्रेष्ठता की पुष्टि करते हैं, और सर्वोत्तम प्रदर्शन करने वाली मौजूदा विधि की तुलना में औसत परिशुद्धता में 10.39% सुधार प्रदर्शित करते हैं। इसके अलावा, हम प्रयोगात्मक रूप से इसकी अभिकलनात्मक दक्षता और सुदृढ़ता का प्रदर्शन करते हैं।