본 논문은 머신러닝 모델의 투명성을 높이기 위해 널리 사용되는 교란 기반 설명 방법의 신뢰성을 저해하는 요인과 그 해결책을 제시한다. 구체적으로, 교란 기반 설명에 사용되는 특정 교란 하에서 모델의 불확실성 보정(uncertainty calibration)이 제대로 이루어지지 않아 설명의 품질이 저하됨을 이론적으로 증명한다. 이를 해결하기 위해 모델의 예측을 유지하면서 설명을 향상시키는 새로운 재보정 방법인 ReCalX를 제안하고, 다양한 모델 및 데이터셋에 대한 실험을 통해 ReCalX가 교란으로 인한 오보정을 효과적으로 줄이고 설명의 견고성과 글로벌하게 중요한 입력 특징 식별 능력을 향상시킴을 입증한다.