Este artículo investiga las propiedades de estabilidad de la dinámica de descenso de gradiente primal-dual para problemas complejos de optimización convexa con múltiples términos no suaves en la función objetivo bajo restricciones de consenso generalizadas. La dinámica propuesta se basa en el Lagrangiano Aumentado Proximal y proporciona una alternativa viable a ADMM, que enfrenta desafíos significativos desde perspectivas analíticas y de implementación en escenarios multibloque a gran escala. A diferencia de los algoritmos a medida con garantías de convergencia individuales, este artículo desarrolla un enfoque sistemático para resolver una amplia gama de problemas de optimización complejos. Establecemos garantías de convergencia globales (exponenciales) para la dinámica propuesta explotando diversas propiedades estructurales. Las suposiciones hechas en este artículo son mucho más débiles que las requeridas para probar la estabilidad (exponencial) de la dinámica primal-dual y la convergencia (lineal) de métodos de tiempo discreto como los algoritmos estándar ADMM y EXTRA de dos bloques y multibloque. Finalmente, presentamos experimentos computacionales que demuestran la necesidad de algunas suposiciones estructurales para la estabilidad exponencial y la conveniencia del enfoque propuesto para aplicaciones de computación paralela y distribuida.