Cet article présente « FakeParts », un nouveau type de deepfakes qui modifient des zones spatiales ou des intervalles temporels spécifiques de vidéos authentiques par des manipulations subtiles et localisées. Contrairement aux contenus entièrement synthétisés, les manipulations partielles, telles que les changements d'expression faciale, les remplacements d'objets et les modifications d'arrière-plan, se fondent parfaitement avec les éléments réels, les rendant particulièrement trompeuses et difficiles à détecter. Pour combler cette lacune critique en matière de performance de détection, cet article présente « FakePartsBench », le premier ensemble de données de référence à grande échelle spécialement conçu pour capturer l'ensemble des deepfakes partiels. Comprenant plus de 25 000 vidéos avec des annotations de manipulation au niveau des pixels et des images, cet ensemble de données permet une évaluation complète des méthodes de détection. Des études utilisateurs démontrent que FakeParts réduit la précision de la détection humaine de plus de 30 % par rapport aux deepfakes existants, avec une dégradation similaire observée avec les modèles de détection de pointe. Cette recherche expose les vulnérabilités critiques des méthodes actuelles de détection des deepfakes et fournit une ressource pour développer des méthodes plus robustes contre la manipulation vidéo partielle.