본 논문은 AI 적색팀 활동의 현황과 한계를 비판적으로 분석하고, 보다 포괄적인 AI 적색팀 활동 프레임워크를 제시한다. 기존의 AI 적색팀 활동이 개별 모델의 취약점 발견에 집중하는 것과 달리, 본 논문은 모델, 사용자, 환경 간의 복잡한 상호작용으로 인해 발생하는 광범위한 사회기술적 시스템 및 출현 행동을 고려해야 함을 주장한다. 이를 위해 거시적 시스템 적색팀 활동(AI 개발 전 과정을 포괄)과 미시적 모델 적색팀 활동의 두 가지 수준에서 작동하는 포괄적인 프레임워크를 제안하며, 사이버 보안 경험과 시스템 이론에 기반한 권장 사항들을 제시한다. 효과적인 AI 적색팀 활동을 위해서는 기술적 및 사회적 요인 간의 상호 작용, 출현 위험, 시스템적 취약성을 검토하는 다기능 팀이 필요하다고 강조한다.