Cet article présente le mouvement brownien neuronal (MBN), un nouveau processus stochastique pour la modélisation de la dynamique sous incertitude acquise. Le MBN est défini axiomatiquement en remplaçant la propriété de martingale classique pour les espérances linéaires par une propriété pour l'opérateur d'espérance neuronal non linéaire $\varepsilon^\theta$ généré par la fonction motrice $f_\theta$ d'une équation différentielle stochastique rétrograde (EDSR) paramétrée par un réseau de neurones. Le principal résultat est un théorème de représentation pour le MBN canonique, que nous définissons comme une $\varepsilon^\theta$-martingale continue à dérive nulle sous mesures physiques. Nous prouvons que, sous certaines hypothèses structurelles clés sur les fonctions motrices, un tel MBN canonique existe et constitue une solution forte unique aux équations différentielles stochastiques de la forme ${\rm d} M_t = \nu_\theta(t, M_t) {\rm d} W_t$. Il est important de noter que la fonction de volatilité $\nu_\theta$ n'est pas supposée à l'avance, mais est implicitement définie par la contrainte algébrique $g_\theta(t, M_t, \nu_\theta(t, M_t)) = 0$, où $g_\theta$ est une spécialisation de la fonction motrice BSDE. Nous développons un calcul probabiliste pour ce processus et prouvons un théorème de type Girsanov pour le cas du second ordre, montrant que le NBM dérive sous une nouvelle mesure apprise. La nature de cette mesure, qu'elle soit pessimiste ou optimiste, est déterminée de manière endogène par le paramètre appris $\theta$, fournissant une base rigoureuse pour les modèles dont l'attitude envers l'incertitude est une caractéristique découvrable.