En este artículo, proponemos un método novedoso para abordar el problema de que, a pesar de la mejora continua de la compresión de imágenes mediante autocodificadores variacionales (VAE), el proceso de cuantificación no se considera con precisión en el proceso de aprendizaje. Los métodos existentes presentan limitaciones, ya que no pueden modelar con precisión el ruido de cuantificación en el proceso de aproximación de la cuantificación, lo que resulta en redes subóptimas. Por lo tanto, proponemos un paso adicional de ajuste fino después del aprendizaje convencional de extremo a extremo, en el que una parte de la red se reentrena utilizando las variables latentes cuantificadas obtenidas en el paso de inferencia. En particular, para cuantificadores con restricciones de entropía, como la cuantificación codificada por Trellis, es particularmente difícil aproximar el efecto de la cuantificación redondeando o añadiendo ruido, ya que las variables latentes cuantificadas se seleccionan de forma interdependiente a través de la búsqueda de trellis basada tanto en el modelo de entropía como en la medida de distorsión. Demostramos que el reentrenamiento con datos cuantificados con precisión proporciona consistentemente una ganancia de codificación adicional, tanto para la cuantificación escalar uniforme como para la cuantificación con restricciones de entropía, sin aumentar la complejidad de la inferencia. Para el conjunto de prueba Kodak, logramos una reducción promedio de la tasa de bits de Bj{\o}ntegaard-Delta del 1% al 2%, y para el conjunto de prueba TecNick, de hasta el 2,2%.