본 논문은 인공지능(AI)의 발전에 있어 딥 뉴럴 네트워크(DNNs)의 한계점을 지적하고, 뇌의 신경 발생(neurogenesis), 신경 세포 사멸(neuroapoptosis), 신경 가소성(neuroplasticity)과 같은 생물학적 과정을 DNN 설계에 적용하는 방안을 탐구한다. 기존 DNNs는 학습 및 추론 과정 동안 고정된 구조를 유지하는 반면, 본 논문은 신경 발생을 모방한 'dropin', 신경 세포 사멸을 모방한 'dropout' 및 구조적 가지치기, 그리고 이 둘을 결합한 신경 가소성을 활용하여 평생 학습(life-long learning)이 가능한 더욱 발전된 AI 모델을 제안한다.