この論文では、ドメインの専門知識を持たないユーザーにとって明確で解釈可能な結果を生成するのが困難な説明可能なAI(XAI)方法の問題を解決するために、地域的およびグローバルな特徴の重要性の両方を使用してクラスの代表的な例を選択するための事後的な方法であるFeature-Guided Neighbor Selection(FGNS)を提案します。カナダのスクリプト分類を評価したユーザー研究(N = 98)では、FGNSは非専門家のモデルエラー識別能力を大幅に向上させ、正確な予測との適切な一致を維持しました。参加者は、既存のk-NNの説明を受けた参加者よりも迅速かつ正確な決定を下しました。定量的分析の結果、FGNSは単に特徴空間距離を最小化するのではなく、クラス特性をよりよく反映するネイバーを選択して、より一貫した選択とクラスプロトタイプの周りのより密集したクラスタリングをもたらすことを示しています。これらの結果は、FGNSがより人間中心のモデル評価のための一歩になることを示唆していますが、説明の質と認知された信頼との間のギャップを解消するためのさらなる研究が必要であることを示しています。