본 논문은 지난 70년간 주로 수동으로 조정해왔던 신경망 레이어의 너비를 학습하는 새로운 기법을 제시합니다. 이 기법은 별도의 최적화나 수작업 기반의 기울기 휴리스틱에 의존하지 않고, 단순한 역전파를 통해 각 레이어의 너비와 매개변수를 동시에 최적화합니다. 표, 이미지, 텍스트, 그래프 등 다양한 데이터 영역에 적용하여 작업의 난이도에 따라 너비가 적응적으로 변하는 것을 보여줍니다. 뉴런 간의 중요도 순위를 부여함으로써, 거의 무시할 만한 비용으로 훈련된 네트워크를 잘라낼 수 있으며, 성능과 컴퓨팅 자원 간의 원활한 절충을 구현합니다. 또한 성능 저하 없이 네트워크를 동적으로 압축할 수 있습니다. 대규모 데이터셋으로 훈련된 최신 기초 모델들은 수십억 개의 매개변수를 필요로 하며 하이퍼파라미터 튜닝이 불가능할 정도로 훈련 비용이 많이 드는데, 본 논문의 접근 방식은 이러한 문제에 대한 실행 가능한 대안을 제시합니다.