Este artículo aborda el problema de los deepfakes, medios sintéticos generados mediante técnicas de IA de vanguardia, que exacerban la propagación de la desinformación, especialmente en contextos políticamente sensibles. Los conjuntos de datos existentes para la detección de deepfakes son ineficaces para detectar imágenes sintéticas generales debido a limitaciones como métodos de generación obsoletos, imágenes irreales o la dependencia de una sola imagen facial. Este estudio analiza publicaciones en redes sociales para identificar las diversas formas en que los deepfakes propagan la desinformación. Además, la investigación sobre la percepción humana demuestra que los modelos propietarios desarrollados recientemente generan imágenes sintéticas difíciles de distinguir de las reales. Por lo tanto, este artículo presenta un conjunto de datos completo, con enfoque político, diseñado específicamente para evaluar el rendimiento de detección de los modelos generativos de vanguardia. Este conjunto de datos consta de 3 millones de imágenes reales con descripciones y 963.000 imágenes sintéticas de alta calidad generadas mediante diversos modelos propietarios y de código abierto. Reconociendo la constante evolución de las técnicas generativas, presentamos una innovadora plataforma de crowdsourcing antagónico que anima a los participantes a generar y enviar imágenes sintéticas complejas. Esta iniciativa continua, impulsada por la comunidad, garantiza que los métodos de detección de deepfakes sean sólidos y adaptables, protegiendo de forma proactiva el discurso público de amenazas de desinformación sofisticadas.