본 논문은 다중 에이전트 강화 학습(MARL)을 이용한 인공지능(AI) 기반 전략 기획의 현황과, 특히 군사적 맥락에서의 설명 가능성(explainability) 문제에 초점을 맞추고 있다. 시뮬레이션된 공중전 시나리오를 중심으로 다양한 설명 가능성 기법들을 적용하여 AI 모델의 행동에 대한 통찰력을 얻고, AI가 생성한 전술을 인간이 이해할 수 있는 추론과 연결함으로써 신뢰할 수 있는 배치와 의미 있는 인간-기계 상호 작용을 위한 투명성의 중요성을 강조한다. 결론적으로, 작전 방어를 위한 MARL 발전에 있어 설명 가능성의 중요성을 부각하여 전략 기획뿐 아니라 군사 인력 훈련에도 기여할 수 있음을 제시한다.