본 논문은 다수의 대규모 언어 모델(LLM) 에이전트를 활용하는 혼합 아키텍처(MoA)의 안전성 및 신뢰성에 대한 최초의 종합적인 연구를 제시합니다. 특히, 의도적으로 오해의 소지를 남기는 응답을 제공하는 기만적인 LLM 에이전트에 대한 MoA의 강건성을 평가합니다. 기만 정보의 전파, 모델 크기, 정보 가용성과 같은 요인들을 조사하여 MoA의 중요한 취약성을 밝혀냅니다. AlpacaEval 2.0 및 QuALITY 벤치마크를 사용하여, 단 하나의 기만적인 에이전트가 MoA의 성능을 크게 저하시킬 수 있음을 보여주고, 베네치아 총독 선거 과정에서 영감을 얻은 비지도 방어 메커니즘을 제안하여 성능 저하를 회복합니다.