Cet article met en évidence la complexité et l'évolution des contenus deepfake dans des scénarios réels. Les référentiels académiques existants présentent généralement des sources d'apprentissage homogènes et des images de test de faible qualité, ce qui décourage considérablement le déploiement en situation réelle des détecteurs actuels. Pour combler cette lacune, nous présentons le jeu de données HydraFake, qui simule des défis concrets grâce à des tests de généralisation hiérarchique. HydraFake englobe diverses techniques de deepfake, des falsifications de terrain, des protocoles d'apprentissage et d'évaluation rigoureux, et couvre des architectures de modèles inédites, de nouvelles techniques de falsification et de nouveaux domaines de données. En nous appuyant sur ces ressources, nous proposons Veritas, un détecteur de deepfakes basé sur un modèle de langage multimodal à grande échelle (MLLM). Contrairement aux processus de pensée conventionnels (CoT), nous introduisons l'inférence par reconnaissance de formes, qui intègre des schémas d'inférence clés tels que la « planification » et l'« autoréflexion », afin d'imiter les processus d'investigation humains. Nous proposons également un pipeline d'apprentissage en deux étapes pour intégrer de manière transparente ces capacités d'inférence de deepfakes aux MLLM existants. Les expériences menées sur le jeu de données HydraFake démontrent que les détecteurs précédents affichent d'excellentes performances de généralisation dans les scénarios inter-modèles, mais sont moins performants dans les domaines de la falsification et des données non détectés. Veritas améliore significativement les performances dans divers scénarios OOD, offrant des résultats de détection transparents et précis.