본 논문은 모델 앙상블 적대적 공격의 이전까지 미개척되었던 이론적 기반을 다룬다. 모델 앙상블 적대적 공격의 전이성 오류를 정의하고, 이를 취약성, 다양성, 상수의 합으로 분해하여 전이성 오류의 근원을 설명한다. 정보 이론의 수학적 도구를 활용하여 전이성 오류를 복잡도와 일반화 항으로 경계짓고, 전이성 오류를 줄이기 위한 세 가지 실용적인 지침(대리 모델 추가, 다양성 증가, 과적합 시 복잡도 감소)을 제시한다. 54개 모델을 사용한 광범위한 실험을 통해 이론적 프레임워크의 타당성을 검증한다.