본 논문은 fMRI 데이터로부터 비디오를 재구성하는 새로운 프레임워크인 NEURONS를 제안합니다. 기존 방법들이 공간-시간적 역동성을 포착하는 데 어려움을 겪는 문제를 해결하기 위해, 시각 시스템의 계층적 구조에서 영감을 얻어 네 가지 하위 작업 (주요 객체 분할, 개념 인식, 장면 설명, 흐릿한 비디오 재구성)으로 학습을 분리합니다. 이를 통해 다양한 비디오 콘텐츠를 포착하고, 사전 훈련된 text-to-video 확산 모델을 이용하여 비디오를 재구성합니다. 실험 결과, 기존 방법보다 비디오 일관성 (26.6%)과 의미 수준 정확도 (19.1%)가 크게 향상되었음을 보여주며, 시각 피질과의 강력한 기능적 상관관계를 나타냅니다.