Este artículo propone una novedosa pérdida de regularización que guía las muestras para que se ajusten a una distribución gaussiana estándar y así facilitar diversas tareas posteriores, incluyendo la optimización en el espacio latente de modelos de texto a imagen. Tratamos los elementos de muestras de alta dimensión como variables gaussianas estándar unidimensionales en el dominio espacial y definimos una pérdida compuesta que combina la regularización basada en momentos en el dominio espacial y la regularización basada en el espectro de potencia en el dominio espectral. Dado que los valores esperados de las distribuciones de momentos y espectro de potencia se conocen analíticamente, esta pérdida facilita la consistencia con estas propiedades. Para asegurar la invariancia de permutación, la pérdida se aplica a entradas permutadas aleatoriamente. Cabe destacar que las regularizaciones gaussianas existentes están integradas en nuestro marco unificado. Si bien algunas corresponden a pérdidas de momentos de cierto orden, las pérdidas previas por coincidencia de covarianza son equivalentes a nuestra pérdida espectral, pero incurren en una mayor complejidad temporal debido al cálculo en el dominio espacial. En este artículo, demostramos la aplicación de nuestra regularización en el modelado generativo para la alineación de compensación en tiempo de prueba mediante modelos de texto a imagen, centrándonos específicamente en mejorar la estética y la alineación del texto. La regularización propuesta supera a la regularización gaussiana existente, previniendo eficazmente la manipulación de la compensación y acelerando la convergencia.