Cet article aborde la gravité de la prolifération d'informations erronées due à la propagation d'images deepfake sur les réseaux sociaux et propose un nouvel ensemble de données et un nouveau modèle de détection pour y remédier. Nous présentons un ensemble de données de détection d'images de réseaux sociaux (SID-Set) à grande échelle et diversifié, contenant plus de 300 000 images générées/manipulées par l'IA et images réelles. Nous présentons également SIDA (Social media Image Detection, localization, and explanation Assistant), un nouveau cadre de détection, de localisation et d'explication des deepfakes qui détermine l'authenticité d'une image, identifie la zone manipulée et fournit des explications textuelles pour les critères de jugement du modèle. SIDA surpasse les modèles de pointe existants, et nous prévoyons de rendre le code, le modèle et l'ensemble de données accessibles au public.