본 논문은 인공지능(AI)의 발전에 있어 딥 뉴럴 네트워크(DNN)의 한계점을 지적하고, 인간 뇌의 신경 발생(neurogenesis), 신경 세포 사멸(neuroapoptosis), 신경 가소성(neuroplasticity)과 같은 중요한 과정을 DNN 설계에 통합할 가능성을 탐구한다. 기존 DNN은 학습과 추론 과정에서 고정된 구조를 유지하는 반면, 본 논문은 신경 발생을 모방한 'dropin' 개념과 신경 세포 사멸을 모방한 'dropout' 및 구조적 가지치기(structural pruning)를 제시하며, 이들을 결합한 신경 가소성을 통해 평생 학습(life-long learning)이 가능한 대규모 DNN의 개발 가능성을 모색한다.