본 논문은 조직 경계를 넘나드는 자율 에이전트로 빠르게 진화하는 대규모 언어 모델(LLM)의 보안 문제를 다룬다. 재난 대응, 공급망 최적화 등 분산된 전문 지식이 필요한 작업에 LLM 에이전트들이 협업하지만, 이러한 상호 운영은 기존의 정렬 및 봉쇄 기술의 통합된 신뢰 가정을 깨뜨린다. 고립된 상태에서는 안전한 에이전트도 신뢰할 수 없는 피어로부터 메시지를 받으면 비밀을 유출하거나 정책을 위반할 수 있으며, 이는 고전적인 소프트웨어 버그가 아닌 출현하는 다중 에이전트 역학에 의해 발생하는 위험을 초래한다. 따라서 본 논문에서는 도메인 간 다중 에이전트 LLM 시스템의 보안 과제를 제시하고, 7가지 새로운 보안 과제, 각 과제에 대한 가능한 공격, 보안 평가 지표, 그리고 미래 연구 지침을 제시한다.