본 논문은 대규모 언어 모델(LLM) 기반 자율 에이전트의 보안 취약성을 종합적으로 평가한 연구 결과를 제시합니다. LLM이 추론 엔진으로 사용되는 자율 에이전트에서 다양한 공격 경로(직접 프롬프트 주입, RAG 백도어, 에이전트 간 신뢰)를 활용하여 시스템 전체 장악이 가능함을 보여줍니다. GPT-4, Claude-4, Gemini-2.5 등 최신 LLM 18개를 대상으로 실험한 결과, 대다수 모델이 직접 프롬프트 주입 및 RAG 백도어 공격에 취약하며, 에이전트 간 신뢰 관계를 악용한 공격에도 전부 취약함을 확인했습니다. 이는 AI 도구 자체가 정교한 공격 벡터로 활용될 수 있음을 시사하는 사이버 보안 위협의 패러다임 전환을 의미합니다.