Este artículo analiza las diferencias entre la destilación de consistencia y el entrenamiento de consistencia, que son métodos de aprendizaje de modelos de consistencia, y propone un nuevo método para mejorar el rendimiento y la velocidad de convergencia del aprendizaje de consistencia mediante la superación de las diferencias. El modelo de consistencia es un modelo que imita el muestreo multietapa de la difusión basada en puntuaciones con un único paso hacia adelante de una red neuronal. Mientras que la destilación de consistencia convencional utiliza el campo de velocidad real aproximado por una red neuronal preentrenada, el aprendizaje de consistencia utiliza una estimación de Monte Carlo de una sola muestra del campo de velocidad. Este artículo muestra que la brecha entre los dos métodos debido a este error de estimación persiste, y para aliviarla, proponemos un nuevo flujo que pasa datos ruidosos a la salida del modelo de consistencia. Se ha demostrado que este flujo reduce la brecha mencionada anteriormente y el costo de transferencia de datos ruidosos.