Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Mouvement brownien neuronal

Created by
  • Haebom

Auteur

Qian Qi

Contour

Cet article présente le mouvement brownien neuronal (MBN), un nouveau processus stochastique pour la modélisation de la dynamique sous incertitude acquise. Le MBN est défini axiomatiquement en remplaçant la propriété de martingale classique pour les espérances linéaires par une propriété pour l'opérateur d'espérance neuronal non linéaire $\varepsilon^\theta$ généré par la fonction motrice $f_\theta$ d'une équation différentielle stochastique rétrograde (EDSR) paramétrée par un réseau de neurones. Le principal résultat est un théorème de représentation pour le MBN canonique, que nous définissons comme une $\varepsilon^\theta$-martingale continue à dérive nulle sous mesures physiques. Nous prouvons que, sous certaines hypothèses structurelles clés sur les fonctions motrices, un tel MBN canonique existe et constitue une solution forte unique aux équations différentielles stochastiques de la forme ${\rm d} M_t = \nu_\theta(t, M_t) {\rm d} W_t$. Il est important de noter que la fonction de volatilité $\nu_\theta$ n'est pas supposée à l'avance, mais est implicitement définie par la contrainte algébrique $g_\theta(t, M_t, \nu_\theta(t, M_t)) = 0$, où $g_\theta$ est une spécialisation de la fonction motrice BSDE. Nous développons un calcul probabiliste pour ce processus et prouvons un théorème de type Girsanov pour le cas du second ordre, montrant que le NBM dérive sous une nouvelle mesure apprise. La nature de cette mesure, qu'elle soit pessimiste ou optimiste, est déterminée de manière endogène par le paramètre appris $\theta$, fournissant une base rigoureuse pour les modèles dont l'attitude envers l'incertitude est une caractéristique découvrable.

Takeaways, Limitations

Takeaways: Nous présentons un nouveau processus stochastique NBM qui prend en compte l'incertitude apprise et en établissons une base mathématique rigoureuse. En permettant l'apprentissage de l'attitude face à l'incertitude au sein du modèle, diverses situations d'incertitude peuvent être modélisées plus finement. L'analyse du comportement du NBM sous des mesures apprises est possible grâce à l'extension du théorème de Girsanov.
Limitations: Des recherches supplémentaires sont nécessaires sur la généralité et les contraintes des hypothèses structurelles fondamentales de la fonction motrice. Une vérification expérimentale et des études d'application complémentaires sont nécessaires pour une application aux données réelles. Des recherches supplémentaires sont nécessaires sur l'extension aux systèmes de grande dimension et l'optimisation des coûts de calcul.
👍