본 논문은 인간-모델 상호작용을 위해 설계된 안전 메커니즘이 대규모 언어 모델(LLM) 간의 상호작용 환경에서 확장되지 않는 이유를 분석한다. 현재의 거버넌스 관행은 개별 모델의 동작을 제한하지만, 다중 모델 상호작용의 역학은 관리하지 못한다. 논문은 모델 수준의 안전에서 시스템 수준의 안전으로의 개념적 전환을 제안하며, 상호작용 구조에서 불안정성이 발생하는 방식을 공식화하기 위해 Emergent Systemic Risk Horizon (ESRH) 프레임워크를 도입한다. 이 논문은 (i) 상호작용하는 LLM에서 집단적 위험에 대한 이론적 설명, (ii) 미시, 중간, 거시적 수준의 실패 모드를 연결하는 분류법, (iii) 다중 에이전트 시스템 내에 적응형 감독을 임베딩하기 위한 아키텍처인 InstitutionalAI에 대한 설계 제안을 제공한다.