इस पत्र में, हम न्यूरॉन्स (NEURONS) का प्रस्ताव करते हैं, जो fMRI डेटा से वीडियो पुनर्निर्माण के लिए एक नया ढाँचा है। स्थानिक-कालिक गतिशीलता को पकड़ने में मौजूदा तरीकों की कठिनाइयों को दूर करने के लिए, हम सीखने को चार उप-कार्यों में विभाजित करते हैं: मुख्य वस्तु विभाजन, अवधारणा पहचान, दृश्य विवरण, और धुंधला वीडियो पुनर्निर्माण, जो दृश्य प्रणाली की पदानुक्रमित संरचना से प्रेरित है। यह हमें विविध वीडियो सामग्री को पकड़ने और पूर्व-प्रशिक्षित टेक्स्ट-टू-वीडियो प्रसार मॉडल का उपयोग करके मजबूत सशर्त संकेत उत्पन्न करके वीडियो का पुनर्निर्माण करने में सक्षम बनाता है। प्रायोगिक परिणाम दर्शाते हैं कि वीडियो सुसंगतता (26.6%) और अर्थ सटीकता (19.1%) के मामले में न्यूरॉन्स अत्याधुनिक मॉडलों से बेहतर प्रदर्शन करता है, और दृश्य प्रांतस्था के साथ मजबूत कार्यात्मक सहसंबंध प्रदर्शित करता है। हम GitHub पर कोड और मॉडल वेट जारी करते हैं।