本論文は、セキュリティ管理センター(SOC)におけるAIベースの脅威検出の透明性と信頼性を高めるための説明可能なAI(XAI)の重要性を強調し、高リスクの状況で迅速な意思決定が必要な環境で適切な説明レベルと形式を決定することが複雑で未開拓の課題であることを指摘しています。オンラインアンケート(N1 = 248)と深いインタビュー(N2 = 24)を組み合わせた3ヶ月間の混合方法の研究は、SOCアナリストがAI生成の説明をどのように概念化するか、そしてさまざまなアナリストの役割に基づいてどのような説明が実行可能で信頼できるかを調査しました。研究の結果、説明が関連性があり、証拠に基づいて認識された場合、参加者は予測精度が低い場合でもXAI出力を一貫して受け入れました。アナリストはAI決定の理由を理解することの重要性を繰り返し強調し、ダッシュボードに結果を単に提示するよりも、状況の深い理解を強く好みました。この研究は、これらの洞察に基づいてセキュリティ状況内で現在の説明方法を再評価し、SOCワークフローに合わせて役割を認識し、状況豊富なXAI設計が実質的な有用性を大幅に向上させることができることを示しています。これらのカスタマイズ可能な説明の可能性は、アナリストの理解を高め、分類効率を高め、進化する脅威に対するより自信のある対応を支援します。