분산형 AI 에이전트가 인터넷 플랫폼 전반에서 상호 작용하게 되면서 기존 사이버 보안 및 AI 안전 프레임워크를 넘어서는 보안 문제가 발생합니다. 자유 형식 프로토콜은 AI의 작업 일반화에 필수적이지만, 은밀한 공모 및 조정된 군집 공격과 같은 새로운 위협을 가능하게 합니다. 네트워크 효과는 개인 정보 유출, 허위 정보, 탈옥 및 데이터 오염을 빠르게 확산시킬 수 있으며, 다중 에이전트 분산 및 은밀한 최적화는 적대자들이 감시를 피하도록 도와 시스템 수준에서 새로운 지속적인 위협을 만듭니다. 이러한 중요성에도 불구하고 이러한 보안 과제는 AI 보안, 다중 에이전트 학습, 복잡 시스템, 사이버 보안, 게임 이론, 분산 시스템 및 기술 AI 거버넌스를 포함한 여러 분야에서 연구가 분산되어 제대로 연구되지 않았습니다. 본 논문에서는 상호 작용하는 AI 에이전트로 인해 발생하거나 증폭되는 위협(서로, 인간 및 기관과의 직접 또는 공유 환경을 통한 간접 상호 작용)으로부터 분산형 AI 에이전트 네트워크를 보호하는 데 전념하는 새로운 분야인 다중 에이전트 보안을 소개하고 기본적인 보안-성능 절충점을 특징으로 합니다. 본 논문의 예비 연구는 (1) 상호 작용하는 AI 에이전트에서 발생하는 위협 환경을 분류하고, (2) 분산형 AI 시스템의 보안-성능 절충점을 조사하며, (3) 안전한 에이전트 시스템 및 상호 작용 환경 설계에 대한 미해결 과제를 해결하는 통합 연구 계획을 제안합니다. 이러한 간극을 파악함으로써 인터넷에서 대규모 에이전트 배포의 사회경제적 잠재력을 실현하고, 대중의 신뢰를 높이며, 중요 인프라 및 방위 분야의 국가 안보 위험을 완화하기 위해 이 중요 분야의 연구를 지도하고자 합니다.