Cet article propose une nouvelle perte de régularisation qui guide les échantillons vers une distribution gaussienne standard afin de faciliter diverses tâches ultérieures, notamment l'optimisation dans l'espace latent des modèles texte-image. Nous traitons les éléments des échantillons de grande dimension comme des variables gaussiennes standard unidimensionnelles dans le domaine spatial et définissons une perte composite combinant une régularisation basée sur les moments dans le domaine spatial et une régularisation basée sur le spectre de puissance dans le domaine spectral. Les valeurs attendues des distributions des moments et du spectre de puissance étant connues analytiquement, cette perte facilite la cohérence avec ces propriétés. Pour garantir l'invariance par permutation, la perte est appliquée à des entrées permutées aléatoirement. Notamment, les régularisations gaussiennes existantes sont intégrées dans notre cadre unifié. Si certaines correspondent à des pertes de moments d'un certain ordre, les pertes de correspondance de covariance antérieures sont équivalentes à notre perte spectrale, mais entraînent une complexité temporelle plus élevée en raison du calcul dans le domaine spatial. Dans cet article, nous démontrons l'application de notre régularisation à la modélisation générative pour l'alignement de compensation au moment du test à l'aide de modèles texte-image, en nous concentrant spécifiquement sur l'amélioration de l'esthétique et de l'alignement du texte. La régularisation proposée surpasse la régularisation gaussienne existante, empêchant efficacement le piratage de compensation et accélérant la convergence.