본 논문은 모델의 신뢰도 점수가 예측의 정확성을 정확하게 반영하도록 하는 모델 보정(calibration)에 대해 다룹니다. 기존의 보정 방법들은 모든 주석에 대한 완전한 확실성을 암묵적으로 가정하는 one-hot 레이블 데이터셋에 근본적으로 묶여 있습니다. 이러한 데이터셋은 분류에는 효과적이지만, 모델 보정을 위한 불확실성에 대한 충분한 지식을 제공하지 못합니다. 따라서 수치적으로 풍부한 ground-truth 신뢰도 값을 가진 데이터셋을 만들어야 할 필요가 있습니다. 그러나 불확실한 시각적 예제가 부족하여 이러한 샘플을 실제 데이터셋으로 쉽게 얻을 수 없습니다. 본 논문에서는 다양한 샘플과 그 ground-truth 불확실성을 생성하기 위해 보정 인식 데이터 증강(calibration-aware data augmentation)을 제시합니다. 특히, 혼합된 클래스 특성을 가진 훈련 샘플을 생성하고 확산 모델을 통해 고유한 신뢰도 점수를 주석으로 달아주는 새로운 프레임워크인 Calibration-aware Semantic Mixing (CSM)을 제시합니다. 이 프레임워크를 기반으로 확산 역과정 동안 주석된 신뢰도 점수와 혼합 비율 간의 불일치를 해결하기 위해 보정된 재주석(calibrated reannotation)을 제안합니다. 또한 새로운 데이터 표현 패러다임에 더 잘 맞는 손실 함수를 탐색합니다. 실험 결과는 CSM이 최첨단 보정 방법보다 우수한 보정 성능을 달성함을 보여줍니다. 코드는 github.com/E-Galois/CSM에서 이용 가능합니다.