본 논문은 보안 관제센터(SOC)에서 AI 기반 위협 탐지의 투명성과 신뢰성을 높이기 위한 설명 가능한 AI (XAI)의 중요성을 강조하며, 고위험 상황에서의 신속한 의사결정이 요구되는 환경에서 적절한 설명 수준과 형식을 결정하는 것이 복잡하고 미개척된 과제임을 지적합니다. 온라인 설문조사(N1=248)와 심층 인터뷰(N2=24)를 결합한 3개월간의 혼합방법 연구를 통해 SOC 분석가가 AI 생성 설명을 어떻게 개념화하는지, 그리고 다양한 분석가 역할에 따라 어떤 유형의 설명이 실행 가능하고 신뢰할 수 있는지 조사했습니다. 연구 결과, 설명이 관련성이 있고 증거 기반으로 인식될 경우, 참가자들은 예측 정확도가 낮더라도 XAI 출력을 일관되게 받아들였습니다. 분석가들은 AI 결정의 이유를 이해하는 것의 중요성을 반복적으로 강조했으며, 대시보드에 결과를 단순히 제시하는 것보다 상황에 대한 심층적인 이해를 강력하게 선호했습니다. 본 연구는 이러한 통찰력을 바탕으로 보안 상황 내에서 현재의 설명 방법을 재평가하고, SOC 워크플로우에 맞춰 역할 인식적이고 상황 풍부한 XAI 설계가 실질적인 유용성을 크게 향상시킬 수 있음을 보여줍니다. 이러한 맞춤형 설명 가능성은 분석가의 이해력을 높이고, 분류 효율성을 높이며, 진화하는 위협에 대한 보다 자신감 있는 대응을 지원합니다.