Este documento tiene como objetivo abordar dos Limitations principales de los estudios existentes sobre aprendizaje federado (FL) y generalización de dominio (DG), a saber, (1) la ausencia de un análisis matemático formal de la función objetivo de DG y el proceso de aprendizaje, y (2) la limitación de los estudios de DG en FL a la estructura de topología en estrella existente. Con este fin, desarrollamos StyleDDG ( Generalización de dominio federado descentralizada con intercambio de estilos), un algoritmo de DG completamente distribuido diseñado para permitir que los dispositivos en una red peer-to-peer logren DG basándose en compartir información de estilo inferida de conjuntos de datos. Además, proporcionamos el primer enfoque de análisis matemático sistemático para la optimización del aprendizaje de DG basado en estilos para resolver el primer Limitations. Al incorporar algoritmos de DG centralizados existentes en el marco de este documento y modelar StyleDDG utilizando sus formalismos, obtenemos condiciones analíticas para obtener la velocidad de convergencia cuasi-lineal de StyleDDG . A través de experimentos en dos conjuntos de datos DG representativos, demostramos que StyleDDG puede mejorar significativamente la precisión en múltiples dominios objetivo con una sobrecarga de comunicación adicional mínima en comparación con el descenso de gradiente distribuido sin compartir estilos.