본 논문은 깊은 신경망의 효과적인 초기화 방법에 초점을 맞추고 있습니다. 기존의 초기화 방법들은 층 내 항등 전이를 유지하는 방식으로 효율성을 높였지만, 일부 가중치를 0으로 설정하는 과정에서 남은 가중치의 설정이 훈련에 악영향을 줄 수 있다는 한계점을 지적합니다. 이를 해결하기 위해, 본 논문은 잔차 네트워크의 주 층과 서브 층 모두에서 항등성을 유지하는 새로운 초기화 방법인 IDInit을 제안합니다. IDInit은 패딩된 항등 행렬을 사용하여 비정방 행렬의 계급 제약을 극복하고, 확률적 경사 하강법을 통해 항등 행렬의 수렴 문제를 해결합니다. 또한, 고차 가중치 처리 및 죽은 뉴런 문제 해결을 통해 IDInit의 일반성을 향상시킵니다. 실험 결과, IDInit은 다양한 설정(대규모 데이터셋 및 심층 모델 포함)에서 향상된 수렴, 안정성 및 성능을 보여줍니다.