InteractiveGNNExplainer는 그래프 신경망(GNN)의 설명 가능성을 향상시키기 위한 시각적 분석 프레임워크입니다. 특히 노드 분류에 초점을 맞춰, GNN의 복잡성을 해결하고 사용자의 신뢰도를 높이기 위해 설계되었습니다. 이 시스템은 동적 그래프 레이아웃, 임베딩 투영, 특징 검사, 이웃 분석과 같은 상호작용적 시각과 사후 설명 기법 (GNNExplainer) 및 고유 설명 기법 (GAT 어텐션)을 통합합니다. 또한, 상호작용적인 그래프 편집 기능을 통해 "what-if" 분석을 수행하여 GNN 예측 및 설명에 미치는 영향을 즉시 확인할 수 있습니다. Cora 및 CiteSeer 데이터셋에 대한 사례 연구를 통해 InteractiveGNNExplainer가 오분류 진단, GCN과 GAT 비교 분석, 모델 민감도 검증을 용이하게 함을 보여줍니다.