Concept Bottleneck Models (CBMs)은 인간이 이해할 수 있는 개념 집합에 AI 시스템의 결정을 제한함으로써 신뢰성을 높이도록 제안되었다. 하지만 CBMs는 일반적으로 데이터셋이 정확한 개념 레이블을 포함한다고 가정하는데, 이는 실제로는 종종 위반되며, 성능을 크게 저하시킬 수 있음을 보여준다(일부 경우 25%까지). 본 논문은 이 문제를 해결하기 위해 Direct Preference Optimization을 기반으로 하는 새로운 손실 함수인 Concept Preference Optimization (CPO) 목표를 제시한다. CPO는 개념 오표기의 부정적 영향을 효과적으로 완화한다. 본 논문은 CPO 목표의 주요 속성을 분석하여 개념의 사후 분포를 직접 최적화함을 보여주고, Binary Cross Entropy (BCE)와 비교하여 CPO가 개념 노이즈에 본질적으로 덜 민감함을 보여준다. 실험적으로 세 가지 실제 데이터셋에서 추가 레이블 노이즈가 있든 없든 CPO가 BCE보다 일관되게 성능이 우수함을 확인했다. 코드는 Github에 공개한다.