Los Modelos de Cuello de Botella Conceptual (CBM) se proponen para aumentar la fiabilidad de los sistemas de IA al restringir sus decisiones a un conjunto de conceptos que los humanos pueden comprender. Sin embargo, los CBM suelen asumir que los conjuntos de datos contienen etiquetas conceptuales precisas, una práctica que a menudo se infringe, lo que provoca una degradación significativa del rendimiento (hasta un 25 % en algunos casos). En este artículo, proponemos una novedosa función de pérdida, el objetivo de Optimización de Preferencias Conceptuales (CPO), que mitiga eficazmente el impacto negativo del etiquetado incorrecto de conceptos. Analizamos las características clave del objetivo CPO y demostramos que optimiza directamente la distribución posterior de conceptos. En comparación con la Entropía Cruzada Binaria (BCE), demostramos que la CPO es inherentemente menos sensible al ruido conceptual. Experimentalmente, demostramos que la CPO supera consistentemente a la BCE en tres conjuntos de datos del mundo real, con y sin ruido de etiqueta adicional. El código está disponible en GitHub.