Concept Bottleneck Models (CBMs)는 예측을 인간이 이해할 수 있는 개념으로 분해하여 해석 가능성을 보장한다. 하지만 이러한 투명성을 가능하게 하는 CBM 훈련에 사용되는 주석은 종종 노이즈가 있으며, 이러한 손상의 영향은 잘 알려져 있지 않다. 본 연구에서는 CBM의 노이즈에 대한 최초의 체계적인 연구를 제시하고, 적당한 수준의 손상조차도 예측 성능, 해석 가능성 및 개입 효과를 동시에 저하시킨다는 것을 보여준다. 분석을 통해 노이즈가 있는 주석과 깨끗한 주석 사이의 평균 격차보다 훨씬 더 크게 정확도가 감소하고 성능 손실의 대부분을 차지하는 취약한 개념의 하위 집합을 식별한다. 이러한 취약성을 완화하기 위해 두 단계의 프레임워크를 제안한다. 훈련 중에는 Sharpness-Aware Minimization(SAM)을 통해 노이즈에 민감한 개념의 학습을 안정화한다. 추론 중에는 깨끗한 레이블을 사용할 수 없으므로 예측 엔트로피로 개념의 순위를 매기고 불확실성을 취약성의 프록시로 사용하여 가장 불확실한 개념만 수정한다. 이론적 분석과 광범위한 제거 실험을 통해 SAM 훈련이 견고성을 부여하고 불확실성이 취약한 개념을 안정적으로 식별하는 이유를 밝혀, 노이즈가 있는 상황에서도 해석 가능성과 복원력을 모두 유지하는 원리적 기반을 제공한다.