본 논문은 대규모 언어 모델(LLM) 기반의 다수 생성형 AI 에이전트 시스템에서의 비밀 공모 문제를 포괄적으로 공식화합니다. AI와 보안 분야의 관련 개념을 활용하여 에이전트 간 정보의 무단 공유 또는 기타 원치 않는 협력과 같은 프라이버시 및 보안 문제를 다룹니다. 특히, 최신 스테가노그래피 기법이 이러한 상호 작용을 감지하기 어렵게 만드는 가능성에 주목하며, 스테가노그래피 사용에 대한 유인과 다양한 완화 방안을 연구합니다. 여러 종류의 비밀 공모에 필요한 기능을 체계적으로 테스트하는 모델 평가 프레임워크를 제시하고, 다양한 최신 LLM을 대상으로 광범위한 실험 결과를 제공합니다. 현재 모델의 스테가노그래피 기능은 제한적이지만, GPT-4는 능력 향상을 보여주어 스테가노그래피 최첨단 모델 기능에 대한 지속적인 모니터링의 필요성을 시사합니다. 마지막으로, 생성형 AI 모델 간의 미래 공모 위험을 완화하기 위한 포괄적인 연구 프로그램을 제시합니다.