본 연구는 대규모 언어 모델 (LLM) 에이전트 기반의 다중 에이전트 시스템에서 집단적 금융 사기의 위험을 연구합니다. 에이전트들이 사기 행위에 협력할 수 있는지, 그러한 협력이 위험을 어떻게 증폭시키는지, 그리고 사기 성공에 어떤 요인이 영향을 미치는지 조사합니다. 이를 위해, 현실적인 온라인 상호작용을 기반으로 한 금융 사기 시나리오를 시뮬레이션하는 대규모 벤치마크인 MultiAgentFraudBench를 제시합니다. 이 벤치마크는 공공 및 개인 도메인 전반에 걸쳐 전체 사기 라이프사이클을 아우르는 28개의 일반적인 온라인 사기 시나리오를 포함합니다. 또한 상호 작용 깊이, 활동 수준 및 세분화된 협업 실패 모드 등 사기 성공에 영향을 미치는 주요 요인을 분석합니다. 마지막으로, 사기성 게시물 및 대화에 콘텐츠 수준의 경고를 추가하고, LLM을 모니터로 사용하여 잠재적으로 악의적인 에이전트를 차단하며, 사회적 차원에서 정보 공유를 통해 그룹 복원력을 강화하는 일련의 완화 전략을 제안합니다. 특히, 악의적인 에이전트가 환경적 개입에 적응할 수 있음을 관찰했습니다. 본 연구 결과는 다중 에이전트 금융 사기의 현실적인 위험을 강조하고 이를 완화하기 위한 실질적인 조치를 제시합니다.