본 논문은 의료 분야에 점차적으로 배포되는 대규모 언어 모델(LLM)의 안전성, 특히 협업 다중 에이전트 구성에서의 안전성을 보장하는 것을 중시합니다. 연구진은 25가지 위협 범주와 100개의 하위 주제를 포함하는 5,000개의 적대적 의료 프롬프트로 구성된 MedSentry 벤치마크를 소개합니다. 이 데이터셋과 함께, 네 가지 대표적인 다중 에이전트 토폴로지(계층형, 공유 풀, 중앙 집중식, 분산형)가 '어두운 성격' 에이전트의 공격에 어떻게 견디는지 체계적으로 분석하기 위한 엔드-투-엔드 공격-방어 평가 파이프라인을 개발했습니다. 연구 결과는 이러한 아키텍처가 정보 오염을 처리하고 강력한 의사 결정을 유지하는 방식에 대한 중요한 차이점을 보여주며, 기본적인 취약성 메커니즘을 노출합니다. 예를 들어, 공유 풀의 개방적인 정보 공유는 시스템을 매우 취약하게 만들지만, 분산형 아키텍처는 고유한 중복성과 격리 덕분에 더 큰 복원력을 보입니다. 이러한 위험을 완화하기 위해, 연구진은 악의적인 에이전트를 식별하고 재활하여 시스템 안전성을 기준선 수준으로 회복하는 성격 척도 감지 및 수정 메커니즘을 제안합니다. 따라서 MedSentry는 의료 분야에서 더 안전한 LLM 기반 다중 에이전트 시스템 설계를 위한 엄격한 평가 프레임워크와 실용적인 방어 전략을 모두 제공합니다.