[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Too Much to Trust? Measuring the Security and Cognitive Impacts of Explainability in AI-Driven SOCs

Created by
  • Haebom

저자

Nidhi Rastogi, Shirid Pant, Devang Dhanuka, Amulya Saxena, Pranjal Mairal

개요

본 논문은 보안 관제센터(SOC)에서 AI 기반 위협 탐지의 투명성과 신뢰성을 높이기 위한 설명 가능한 AI (XAI)의 중요성을 강조하며, 고위험 상황에서의 신속한 의사결정이 요구되는 환경에서 적절한 설명 수준과 형식을 결정하는 것이 복잡하고 미개척된 과제임을 지적합니다. 온라인 설문조사(N1=248)와 심층 인터뷰(N2=24)를 결합한 3개월간의 혼합방법 연구를 통해 SOC 분석가가 AI 생성 설명을 어떻게 개념화하는지, 그리고 다양한 분석가 역할에 따라 어떤 유형의 설명이 실행 가능하고 신뢰할 수 있는지 조사했습니다. 연구 결과, 설명이 관련성이 있고 증거 기반으로 인식될 경우, 참가자들은 예측 정확도가 낮더라도 XAI 출력을 일관되게 받아들였습니다. 분석가들은 AI 결정의 이유를 이해하는 것의 중요성을 반복적으로 강조했으며, 대시보드에 결과를 단순히 제시하는 것보다 상황에 대한 심층적인 이해를 강력하게 선호했습니다. 본 연구는 이러한 통찰력을 바탕으로 보안 상황 내에서 현재의 설명 방법을 재평가하고, SOC 워크플로우에 맞춰 역할 인식적이고 상황 풍부한 XAI 설계가 실질적인 유용성을 크게 향상시킬 수 있음을 보여줍니다. 이러한 맞춤형 설명 가능성은 분석가의 이해력을 높이고, 분류 효율성을 높이며, 진화하는 위협에 대한 보다 자신감 있는 대응을 지원합니다.

시사점, 한계점

시사점:
SOC 분석가는 관련성 있고 증거 기반의 설명이 제공될 경우, 예측 정확도가 낮더라도 XAI 출력을 수용할 의향이 있음을 보여줌.
분석가들은 AI 결정의 이유를 이해하는 것, 즉 상황에 대한 깊이 있는 설명을 선호함.
역할 인식적이고 상황 풍부한 XAI 설계는 SOC 워크플로우와의 통합을 통해 분석가의 이해력 증진, 분류 효율 증가, 위협 대응 자신감 향상에 기여할 수 있음.
한계점:
연구 대상이 특정 SOC 분석가 집단에 국한되어 일반화 가능성에 제한이 있을 수 있음.
3개월이라는 상대적으로 짧은 연구 기간으로 장기적인 효과 및 지속적인 사용에 대한 평가가 부족할 수 있음.
다양한 유형의 AI 기반 위협 탐지 시스템에 대한 설명 가능성의 일반화 가능성에 대한 추가 연구가 필요함.
특정 설명 방식의 효과성에 대한 정량적 평가가 부족함.
👍