본 논문은 딥러닝 모델의 과도한 모델 크기, 높은 계산 요구량, 과도한 메모리 사용량 문제를 해결하기 위해, 최적의 깊이를 갖는 네트워크인 Optimally Deep Networks (ODNs)를 제안한다. ODNs는 NAS(Neural Architecture Search)와 유사한 progressive depth expansion 기법을 사용하여, 모델의 깊이를 점진적으로 증가시키며 훈련한다. 이를 통해 불필요한 레이어를 제거하고, 훈련 및 추론 비용 절감, 메모리 사용량 감소, 계산 효율성 향상, 그리고 엣지 디바이스에서의 배포 용이성을 달성한다. MNIST와 SVHN 데이터셋에 대한 실험 결과, ResNet-18 및 ResNet-34 모델에서 최대 98.64% 및 96.44%의 메모리 사용량 감소를 이루면서도 경쟁력 있는 정확도를 유지했다.