대규모 언어 모델(LLM)이 조직 간 경계를 넘나드는 자율 에이전트로 빠르게 진화하고 있으며, 분산된 전문 지식을 필요로 하는 재난 대응, 공급망 최적화 등의 작업을 가능하게 합니다. 하지만, 도메인 간 협업은 현재의 정렬 및 봉쇄 기술의 기반이 되는 통합된 신뢰 가정을 깨뜨립니다. 고립된 상태에서는 안전한 에이전트가 신뢰할 수 없는 피어로부터 메시지를 받으면 비밀을 누출하거나 정책을 위반하여 클래식한 소프트웨어 버그가 아닌 출현하는 다중 에이전트 역학에 의해 위험을 초래할 수 있습니다. 본 논문은 도메인 간 다중 에이전트 LLM 시스템에 대한 보안 어젠다를 제시합니다. 7가지 새로운 보안 과제 범주를 소개하고, 각 범주에 대해서는 실행 가능한 공격, 보안 평가 지표 및 향후 연구 지침을 제시합니다.