본 논문은 AI 모델의 신뢰성 향상을 위해 추론 과정을 일관되고 이해하기 쉬운 방식으로 나타내는 방법을 제시한다. 특히, 기상 예보와 같이 예측의 정확성뿐 아니라 기상 메커니즘의 식별이 중요한 고위험 상황에서 이러한 이해는 필수적이다. 기존의 설명 가능한 AI (Explainable AI, XAI) 연구는 AI 중심적인 접근으로 인해 실제 적용에 한계가 있었는데, 본 연구는 사용자 중심적인 접근 방식을 통해 예시 기반 개념 분석 프레임워크를 개발하였다. 이 프레임워크는 대상 모델에서 대상 인스턴스와 유사한 추론 과정을 따르는 사례들을 식별하여 사용자가 이해할 수 있는 형식으로 제시하며, 개념 할당 확률을 포함하여 기상 메커니즘의 모호성을 해소한다. 모델에서 식별된 벡터 표현과 사람이 이해할 수 있는 설명 간의 간극을 해소하기 위해, 사람이 주석을 단 개념 데이터셋을 수집하고 프레임워크 개발에 참여하는 도메인 전문가를 지원하는 사용자 인터페이스를 구현하였다.