본 논문은 의료 분야에서 인공지능(AI)의 활용이 증가함에 따라, 머신러닝(ML) 시스템의 예측에 대한 투명성을 높이고 사용자의 신뢰를 구축하는 데 효과적인 설명 유형을 탐구합니다. 특히, 의사와 ML 시스템이 공동으로 의사결정을 내리는 상황에서 상호 신뢰 구축의 중요성을 강조하며, 설명 가능한 AI(XAI)의 다양한 설명 생성 방식을 제시하고 의료 전문가의 평가를 위한 근거를 명시합니다. 진단 지원 결정 과정에서 다양한 유형의 AI 생성 설명에 대한 의사들의 인식을 조사하기 위해 설문 조사 및 후속 인터뷰를 실시한 사용자 연구 결과를 제시하며, 진단 과정을 향상시키는 가장 효과적이고 유용한 설명 유형을 파악하고자 합니다. 연구를 통해 얻은 통찰력은 가장 효과적인 설명 유형을 이해하는 데 기여합니다.