본 논문은 사후 학습된 언어 모델(PoLM)의 과신 문제를 해결하기 위한 새로운 비지도 학습 기법인 DACA(Disagreement-Aware Confidence Alignment)를 제안합니다. PoLM은 사전 학습된 언어 모델(PLM)과 달리 정답과 오답 모두에 높은 확신도를 부여하는 과신 문제를 보이는데, 이는 신뢰도가 중요한 응용 분야에서 문제가 됩니다. DACA는 PLM과 PoLM의 예측 불일치로 인한 과소신 문제를 해결하기 위해, PLM과 PoLM의 예측이 일치하는 경우만을 사용하여 온도 스케일링 매개변수(τ)를 최적화합니다. 이는 불일치 예시의 영향을 제거하여 보다 정확한 확신도 보정을 가능하게 합니다. 실험 결과, 다양한 벤치마크에서 오픈소스 및 API 기반 LLMs의 평균 ECE(Expected Calibration Error)를 최대 15.08%까지 향상시키는 효과를 보였습니다.