Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Transformers from Diffusion : un cadre unifié pour la transmission de messages neuronaux

Created by
  • Haebom

Auteur

Qitian Wu, David Wipf, Junchi Yan

Contour

Dans cet article, nous proposons un modèle de diffusion à contraintes énergétiques basé sur des réseaux de neurones à passage de messages (MPNN) pour le problème fondamental de l'apprentissage de représentations pour des données structurées de géométries variées (observées ou non). Inspirés par les systèmes physiques, nous intégrons le biais inductif de la diffusion sur les variétés et les contraintes de minimisation d'énergie par couche. Nous révélons une correspondance bijective entre l'opérateur de diffusion et la fonction d'énergie implicitement réduite par le processus de diffusion, et montrons que l'itération aux différences finies qui résout le système de diffusion à contraintes énergétiques induit des couches de propagation de divers types de MPNN opérant sur des structures observées ou latentes. Cela fournit un cadre mathématique unifié pour les architectures de réseaux de neurones générales telles que les MLP, les GNN et les Transformers, qui peuvent représenter le flux de calcul en termes de passage de messages (ou de cas particuliers). Sur la base de ces connaissances, nous avons conçu un nouveau type de modèle neuronal de transmission de messages, le Transformateur inspiré de la diffusion (DIFFormer), doté d'une couche d'attention globale dérivée d'un cadre de diffusion à énergie contrainte et raisonnée. Nous démontrons que ce nouveau modèle offre des performances prometteuses dans des scénarios où la structure des données est observable (de type graphique), partiellement observable ou totalement inobservable sur divers ensembles de données, notamment des réseaux réels, des images, du texte et des particules physiques.

Takeaways, Limitations

Takeaways:
Fournit un cadre mathématique unifié pour différents types de MPNN (y compris MLP, GNN et Transformer).
Nous proposons un nouveau modèle de transmission de messages neuronaux, DIFFormer, basé sur la diffusion de contraintes énergétiques.
Obtenez d’excellentes performances sur des données structurées observées, partiellement observées et non observées.
Présentation d'une nouvelle perspective inspirée des systèmes physiques.
Limitations:
Une analyse plus approfondie est nécessaire sur l’évolutivité et la complexité de calcul du modèle proposé.
Il est nécessaire d’évaluer les performances de généralisation pour différents types et structures de données.
Des recherches supplémentaires sont nécessaires sur la sélection et l’optimisation des fonctions énergétiques.
👍