[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Too Much to Trust? Measuring the Security and Cognitive Impacts of Explainability in AI-Driven SOCs

Created by
  • Haebom

作者

Nidhi Rastogi、Shirid Pant、Devang Dhanuka、Amulya Saxena、Pranjal Mairal

概要

本論文は、セキュリティ管理センター(SOC)におけるAIベースの脅威検出の透明性と信頼性を高めるための説明可能なAI(XAI)の重要性を強調し、高リスクの状況で迅速な意思決定が必要な環境で適切な説明レベルと形式を決定することが複雑で未開拓の課題であることを指摘しています。オンラインアンケート(N1 = 248)と深いインタビュー(N2 = 24)を組み合わせた3ヶ月間の混合方法の研究は、SOCアナリストがAI生成の説明をどのように概念化するか、そしてさまざまなアナリストの役割に基づいてどのような説明が実行可能で信頼できるかを調査しました。研究の結果、説明が関連性があり、証拠に基づいて認識された場合、参加者は予測精度が低い場合でもXAI出力を一貫して受け入れました。アナリストはAI決定の理由を理解することの重要性を繰り返し強調し、ダッシュボードに結果を単に提示するよりも、状況の深い理解を強く好みました。この研究は、これらの洞察に基づいてセキュリティ状況内で現在の説明方法を再評価し、SOCワークフローに合わせて役割を認識し、状況豊富なXAI設計が実質的な有用性を大幅に向上させることができることを示しています。これらのカスタマイズ可能な説明の可能性は、アナリストの理解を高め、分類効率を高め、進化する脅威に対するより自信のある対応を支援します。

Takeaways、Limitations

Takeaways:
SOCアナリストは、関連性があり、証拠ベースの説明が提供されている場合、予測精度が低い場合でもXAI出力に対応することを意図していることを示しています。
アナリストは、AIの決定の理由を理解すること、すなわち状況の深い説明を好む。
役割認識と状況豊富なXAI設計は、SOCワークフローとの統合により、アナリストの理解力の向上、分類効率の向上、脅威対応の自信の向上に貢献できます。
Limitations:
研究対象は特定のSOCアナリスト集団に限定され、一般化の可能性に制限がある可能性があります。
3ヶ月という比較的短い研究期間で、長期的な効果と継続的な使用の評価が不足する可能性があります。
様々なタイプのAIベースの脅威検出システムの記述可能性の一般化の可能性に関するさらなる研究が必要である。
特定の記述方式の有効性の定量的評価が不足している。
👍