본 논문은 신경망(NNs)의 실제 적용을 위해 신뢰할 수 있는 불확실성 추정이 중요하다는 점을 강조합니다. 기존의 보정 기법들은 사후 조정이나 조잡한 이진화 방법에 의존하는 경우가 많아 확장성, 미분 가능성, 도메인 간 일반화에 한계가 있습니다. 이 연구는 예측된 불확실성과 관측된 오차를 훈련 중에 명시적으로 정렬하는 새로운 접근 방식인 CLUE (Calibration via Learning Uncertainty-Error Alignment)를 제시합니다. CLUE는 잘 보정된 모델은 경험적 손실과 일치하는 불확실성 추정치를 생성해야 한다는 원칙에 기반하여 불확실성과 손실의 요약 통계량을 프록시로 사용하여 예측 성능과 보정을 공동으로 최적화하는 새로운 손실 함수를 채택합니다. 제안된 방법은 완전히 미분 가능하고, 도메인에 무관하며, 표준 훈련 파이프라인과 호환됩니다. 시각, 회귀 및 언어 모델링 작업에 대한 광범위한 실험을 통해 분포 외 및 도메인 이동 시나리오를 포함하여 CLUE가 상당한 계산 오버헤드 없이 최첨단 접근 방식에 비해 우수한 보정 품질과 경쟁력 있는 예측 성능을 달성함을 보여줍니다.