En este artículo, proponemos una nueva técnica de regularización, la "Pérdida Dispersiva", para mejorar el rendimiento de los modelos generativos basados en difusión. Los modelos de difusión existentes se basan en funciones objetivo basadas en regresión y carecen de regularización explícita. La Pérdida Dispersiva resuelve este problema induciendo la dispersión de las representaciones internas en el espacio oculto. Es similar al aprendizaje contrastivo, pero no requiere pares de muestras positivos y, por lo tanto, no interfiere con el proceso de muestreo utilizado en la regresión. En comparación con la técnica de alineación de representación (REPA), presenta la ventaja de no requerir preentrenamiento, parámetros adicionales ni datos externos, y supera a los modelos de mejor rendimiento existentes mediante experimentos con varios modelos en el conjunto de datos ImageNet. Se espera que contribuya a reducir la brecha entre el modelado generativo y el aprendizaje de representación.