차세대 통신 및 네트워크에서 정확한 예측뿐만 아니라 올바른 결정의 실제 확률을 반영하는 잘 보정된 신뢰 점수를 제공하는 머신 러닝(ML) 모델을 기대한다. 이 논문에서는 단일 사용자, 다중 자원 할당 프레임워크 내에서 ML 기반 아웃티지 예측기의 보정 성능을 연구한다. 완벽하게 보정된 상태에서 이 시스템의 아웃티지 확률(OP)의 주요 이론적 속성을 먼저 설정한다. 특히, 자원 수가 증가함에 따라 완벽하게 보정된 예측기의 OP는 분류 임계값 미만일 때 조건부로 예상되는 출력에 접근한다는 것을 보여준다. 반대로, 하나의 자원만 사용할 수 있는 경우 시스템의 OP는 모델의 전체 예상 출력과 같다. 그런 다음 완벽하게 보정된 예측기에 대한 OP 조건을 도출한다. 이러한 결과는 원하는 OP를 달성하기 위해 분류 임계값의 선택을 안내하여 시스템 설계자가 특정 신뢰성 요구 사항을 충족하도록 돕는다. 또한 사후 처리 보정은 미래 채널 상태에 대한 새로운 정보를 제공하지 않으므로 시스템의 최소 달성 가능한 OP를 개선할 수 없음을 보여준다. 또한, 잘 보정된 모델은 OP를 필연적으로 개선하는 더 넓은 범주의 예측기의 일부임을 보여준다. 특히, 이러한 개선이 발생하려면 정확도-신뢰도 함수가 충족해야 하는 단조성을 설정한다. 이러한 이론적 속성을 설명하기 위해 Platt 스케일링 및 등방 회귀와 같은 사후 처리 보정 기술을 사용하여 엄격한 시뮬레이션 기반 분석을 수행한다. 이 프레임워크의 일부로, 이 시스템을 위해 특별히 설계된 아웃티지 손실 함수를 사용하여 예측기를 훈련시킨다. 또한, 이 분석은 수신기 이동성을 고려하는 Clarke의 2D 모델로 포착된 시간적 상관 관계가 있는 레일리 페이딩 채널에서 수행된다.