Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Les grands modèles de langage peuvent-ils servir d’ensemble pour les multi-GNN ?

Created by
  • Haebom

Auteur

Hanqi Duan, Yao Cheng, Jianxiang Yu, Yao Liu, Xiang Li

Contour

Cet article souligne que les réseaux de neurones graphes (GNN), efficaces pour l'apprentissage de données structurées en graphes, ne parviennent pas à comprendre les propriétés sémantiques des attributs de nœuds de texte enrichi. Nous observons que les modèles GNN existants ne sont pas toujours performants sur divers ensembles de données. Pour remédier à ce problème, nous proposons le modèle LensGNN, qui utilise un modèle de langage à grande échelle (LLM) comme ensemble de plusieurs GNN. LensGNN mappe les représentations de plusieurs GNN dans le même espace, aligne les espaces entre les GNN et les LLM grâce à un réglage fin LoRA, et injecte des jetons de graphes et des informations textuelles dans le LLM. Cet ensemble de plusieurs GNN exploite les atouts des LLM pour approfondir la compréhension de la sémantique textuelle et des informations structurelles des graphes. Les résultats expérimentaux démontrent que LensGNN surpasse les modèles existants. Cette recherche fait progresser l'apprentissage d'ensembles de graphes d'attributs de texte en fournissant une solution robuste et performante pour l'intégration des informations sémantiques et structurelles. Le code et les données sont disponibles sur GitHub.

Takeaways, Limitations

Takeaways:
Nous présentons une nouvelle méthode permettant d’assembler efficacement plusieurs GNN à l’aide de LLM.
Amélioration des performances du GNN en intégrant des informations sémantiques de texte et des informations sur la structure du graphique.
Surmonter les Limitations des modèles GNN existants et obtenir d'excellentes performances
Contribuer à l’avancement de l’apprentissage d’ensembles de graphes d’attributs de texte.
Limitations:
Il faut tenir compte du coût de calcul et de la consommation de ressources du LLM.
Il est nécessaire de vérifier les performances de généralisation sur différents types d'ensembles de données graphiques.
Des recherches supplémentaires sont nécessaires pour optimiser les paramètres de réglage fin de LoRA.
Des recherches supplémentaires sont nécessaires sur la dépendance à l’égard de LLM spécifiques et sur l’applicabilité d’autres LLM.
👍