Sign In

Survey Perspective: The Role of Explainable AI in Threat Intelligence

Created by
  • Haebom
Category
Empty

저자

Nidhi Rastogi, Devang Dhanuka, Amulya Saxena, Pranjal Mairal, Le Nguyen

개요

본 논문은 AI 기반 보안 도구에 대한 의존도 증가로 인해 SOC(Security Operations Center) 분석가들이 경험하는 경고 과부하, 오탐, 맥락 부족 등의 문제점을 다룹니다. AI 생성 보안 경고의 효과적인 분석 실패는 사고 대응의 비효율성과 자동화된 의사결정에 대한 신뢰 저하로 이어집니다. 논문에서는 SOC 분석가가 AI 기반 경고를 처리하는 방식, 기존 보안 도구의 어려움, 그리고 설명 가능한 AI(XAI)가 의사결정 지원으로 효과적으로 작용할 수 있는 잠재력에 대한 조사 결과 및 분석을 제시합니다. 업계 설문조사를 통해 분석가의 경고 처리, 검색, 우선순위 지정 방식을 분석하고, 대부분의 분석가가 XAI 통합 도구를 채택하지 않았지만 공격 원인 분석, 신뢰도 점수, 특징 기여 설명 등을 통해 해석성과 분류 효율성을 높이는 데 높은 관심을 보이는 것을 밝힙니다. 마지막으로, XAI 강화 보안 경고 시스템을 위한 실용적인 설계 권장 사항을 제시하여 AI 기반 사이버 보안 솔루션의 투명성, 해석성, 실행 가능성을 향상시킵니다.

시사점, 한계점

시사점:
SOC 분석가들이 AI 기반 보안 경고 처리에 어려움을 겪고 있음을 밝힘.
XAI 통합을 통해 경고 해석성과 분류 효율성을 높일 수 있음을 제시.
XAI 강화 보안 경고 시스템 설계를 위한 실용적인 권장 사항 제시.
분석가들은 공격 원인 분석, 신뢰도 점수, 특징 기여 설명에 높은 관심을 가짐.
한계점:
설문조사 기반 연구로, 실제 현장 적용 결과를 반영하지 못할 가능성 존재.
제시된 설계 권장 사항의 실효성 검증이 부족.
XAI 통합 도구의 구체적인 기술적 구현 방안에 대한 논의 부족.
👍