딥 뉴럴 네트워크(DNN)와 같은 학습 기계의 투명성을 높이기 위해, 설명 가능한 AI(XAI) 분야가 DNN의 예측에 대한 해석을 제공하기 위해 설립되었습니다. 다양한 설명 기술이 존재하지만, 특정 데이터 포인트를 고려하여 모델이 예측을 위해 사용한 관련 패턴을 보여주는 귀속 맵 형식이 널리 사용됩니다. 베이지안 신경망(BNN)과 같은 베이지안 모델은 사전 가중치 분포를 통해 제한적인 형태의 투명성을 가지고 있지만, 주어진 인스턴스에 대한 예측에 대한 설명이 부족합니다. 본 연구에서는 이러한 두 관점을 결합하기 위해 국소적 귀속을 BNN으로 확장하는 방법을 탐구합니다. 베이지안 프레임워크 내에서 네트워크 가중치는 확률 분포를 따르므로, 표준 포인트 설명은 자연스럽게 설명 분포로 확장됩니다. 설명을 확률적으로 보면서, 근사 사후 분포에서 추출한 여러 국소적 귀속을 집계하고 분석하여 설명 패턴의 가변성을 탐구합니다. 설명의 다양성은 예측 근거가 사후 표본에 따라 어떻게 달라질 수 있는지 추가로 탐구하는 방법을 제공합니다. 장난감 및 벤치마크 데이터, 실제 병리 데이터 세트에 대한 정량적 및 정성적 실험을 통해 본 연구의 프레임워크가 불확실성 정보를 사용하여 표준 설명을 풍부하게 하고 설명 안정성을 시각화하는 데 도움이 될 수 있음을 보여줍니다.