LLM 기반의 자율 에이전트 AI 시스템은 자동화를 위한 강력하고 유연한 플랫폼으로 부상하고 있습니다. 웹, 소프트웨어 및 물리적 환경에서 자율적으로 작업을 수행하는 능력은 기존 AI 안전 및 기존 소프트웨어 보안과는 다른 새로운 보안 위험을 야기합니다. 본 논문은 에이전트 AI에 특정한 위협 분류를 제시하고, 최근 벤치마크 및 평가 방법을 검토하며, 기술적 및 거버넌스 관점에서 방어 전략을 논의합니다. 또한 현재 연구를 종합하고 해결해야 할 과제를 강조하여 안전한 설계의 에이전트 시스템 개발을 지원합니다.