Este artículo presenta un nuevo modelo de optimización binaria cuadrática (QBO) para el entrenamiento cuantificado de redes neuronales mediante computación cuántica. Permite el uso de funciones de activación y funciones de pérdida arbitrarias mediante interpolación spline, e introduce el método de avance en progreso (FIP) para discretizar la función de activación en subintervalos lineales y resolver los problemas de no linealidad y estructuras complejas multicapa. Esto permite la optimización de funciones no lineales complejas mediante computadoras cuánticas, manteniendo las propiedades de aproximación universal de las redes neuronales, ampliando así el alcance de las aplicaciones en el campo de la inteligencia artificial. Desde una perspectiva de optimización, se deriva la complejidad muestral del problema empírico de minimización de riesgos y se presentan límites superiores teóricos para el error de aproximación y el número requerido de espines de Ising. Para resolver el problema de las restricciones múltiples, un desafío importante en la resolución de modelos de optimización binaria cuadrática con restricciones (QCBO) a gran escala, se utiliza el algoritmo de descenso de gradiente condicional cuántico (QCGD) para resolver directamente el problema QCBO. Se demuestra la convergencia de QCGD bajo la aleatoriedad del valor objetivo y el oráculo cuántico con distribución acotada, y bajo la restricción de precisión limitada de la matriz de coeficientes. Se presenta un límite superior para el tiempo de solución del proceso de solución QCBO. Los resultados experimentales con la Máquina de Iaser Consistente (CIM) alcanzaron una precisión del 94,95 % con una precisión de 1,1 bits en la tarea de clasificación Fashion MNIST.