Cet article étudie les propriétés de stabilité de la dynamique de descente de gradient primale-duale pour des problèmes d'optimisation convexe complexes avec de multiples termes non lisses dans la fonction objectif sous contraintes de consensus généralisées. La dynamique proposée est basée sur le lagrangien augmenté proximal et offre une alternative viable à l'ADMM, qui fait face à des défis importants tant d'un point de vue analytique que d'implémentation dans des scénarios multiblocs à grande échelle. Contrairement aux algorithmes sur mesure avec des garanties de convergence individuelles, cet article développe une approche systématique pour résoudre un large éventail de problèmes d'optimisation complexes. Nous établissons des garanties de convergence globale (exponentielle) pour la dynamique proposée en exploitant diverses propriétés structurelles. Les hypothèses formulées dans cet article sont bien plus faibles que celles requises pour prouver la stabilité (exponentielle) de la dynamique primale-duale et la convergence (linéaire) de méthodes à temps discret telles que les algorithmes ADMM et EXTRA standard à deux et plusieurs blocs. Enfin, nous présentons des expériences de calcul qui démontrent la nécessité de certaines hypothèses structurelles pour la stabilité exponentielle et la commodité de l'approche proposée pour les applications de calcul parallèle et distribué.