Les modèles de goulots d'étranglement conceptuels (CBM) sont proposés pour accroître la fiabilité des systèmes d'IA en limitant leurs décisions à un ensemble de concepts compréhensibles par les humains. Cependant, ces modèles supposent généralement que les ensembles de données contiennent des étiquettes de concepts précises, une pratique souvent violée, entraînant une dégradation significative des performances (jusqu'à 25 % dans certains cas). Dans cet article, nous proposons une nouvelle fonction de perte, l'objectif d'optimisation des préférences conceptuelles (CPO), qui atténue efficacement l'impact négatif des erreurs d'étiquetage des concepts. Nous analysons les principales caractéristiques de l'objectif CPO et démontrons qu'il optimise directement la distribution a posteriori des concepts. Comparé à l'entropie croisée binaire (BCE), nous démontrons que la CPO est intrinsèquement moins sensible au bruit conceptuel. Expérimentalement, nous démontrons que la CPO surpasse systématiquement la BCE sur trois ensembles de données réels, avec et sans bruit d'étiquetage supplémentaire. Le code est disponible sur GitHub.