본 논문은 두 가지 표준 1-Lipschitz 신경망 구조 방법론인 Almost-Orthogonal-Layers (AOL)과 SDP-based Lipschitz Layers (SLL)의 가중치 매개변수화를 논의하고, 이러한 초기화를 둘러싼 근본적인 문제점들을 논의하는 것 외에도 심층 1-Lipschitz 순전파 신경망의 초기화에 미치는 영향을 도출합니다. 이러한 신경망은 주로 출력 분류 결과에 대한 섭동의 영향을 제한하여 적대적 공격에 대처하기 위한 인증 가능한 강력한 분류 애플리케이션에 사용됩니다. 표준 정규 분포 초기화를 가정하여 매개변수화된 가중치 분산에 대한 정확한 값과 상한을 계산했습니다. 또한 일반화된 정규 분포를 가정하여 상한을 계산하여 균일, 라플라스 및 정규 분포 가중치 초기화에 대한 증명을 일반화했습니다. 가중치 분산은 출력 분산 분포에 영향을 미치지 않으며 가중치 행렬의 차원만 중요하다는 것을 보여줍니다. 또한, 본 논문은 가중치 초기화가 항상 심층 1-Lipschitz 신경망을 0으로 감소시킨다는 것을 보여줍니다.