En este artículo, proponemos una novedosa técnica de cuantificación post-aprendizaje de precisión mixta, la Cuantización de Circuito de Tarea (TaCQ), para abordar el problema de la degradación del rendimiento en la cuantificación de bajo nivel de bits (2-3 bits). TaCQ funciona condicionando directamente el proceso de cuantificación al circuito de ponderación, que es un conjunto de ponderaciones relacionadas con el rendimiento de una tarea específica. Las ponderaciones importantes para el rendimiento de una tarea específica se mantienen en 16 bits, y las restantes se cuantifican, reduciendo así eficientemente el uso de memoria y minimizando la degradación del rendimiento. Utilizamos información de gradiente para predecir los cambios de ponderación debidos a la cuantificación y su impacto en el rendimiento de la tarea, y demostramos experimentalmente que supera a los métodos existentes en diversas tareas (QA, razonamiento matemático, conversión de texto a SQL) y modelos (Llama-3, Qwen2.5), utilizando datos tanto de propósito general como específicos de la tarea. En particular, logra mejoras significativas en el rendimiento con respecto a los métodos de vanguardia existentes en entornos de cuantificación de 2 y 3 bits.