Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Les grands modèles de langage peuvent-ils servir d’ensemble pour les multi-GNN ?

Created by
  • Haebom

Auteur

Hanqi Duan, Yao Cheng, Jianxiang Yu, Yao Liu, Xiang Li

Contour

Cet article propose LensGNN, un nouveau modèle exploitant un modèle de langage à grande échelle (LLM) pour relever le défi Limitations des réseaux de neurones graphes (GNN), qui se sont révélés être des modèles performants pour l'apprentissage de données structurées en graphes. Les GNN existants présentent des limites en raison de leur incapacité à comprendre la sémantique des attributs de nœuds de texte enrichi, et nous avons observé qu'un GNN spécifique ne fonctionne pas systématiquement bien sur divers ensembles de données. LensGNN aligne les représentations de plusieurs GNN en les mappant sur le même espace, puis aligne l'espace entre les GNN et les LLM grâce à un réglage fin LoRA. En injectant des jetons de graphe et des informations textuelles dans le LLM, plusieurs GNN sont regroupés et exploitent les atouts du LLM, permettant une compréhension plus approfondie de la sémantique du texte et de la structure du graphe. Les résultats expérimentaux démontrent que LensGNN surpasse les modèles existants, offrant une solution puissante et supérieure pour l'intégration des informations sémantiques et structurelles, faisant progresser l'apprentissage d'ensemble de graphes d'attributs de texte.

Takeaways, Limitations

Takeaways:
Une nouvelle méthode permettant d’améliorer les performances de divers GNN en tirant parti de LLM est présentée.
Développement d'un modèle intégrant efficacement les informations sémantiques du texte et les informations structurelles du graphique.
Surmonter avec succès les limites des modèles GNN existants et améliorer les performances.
Contribuer à l’avancement de l’apprentissage d’ensembles de graphes d’attributs de texte.
Limitations:
Des recherches supplémentaires sont nécessaires sur les performances de généralisation de LensGNN présentées dans cet article.
Des résultats expérimentaux supplémentaires sur différents types d’ensembles de données graphiques sont nécessaires.
Il convient de prendre en compte le coût de calcul et la consommation de ressources du LLM.
Des recherches supplémentaires sont nécessaires sur l’optimisation et le paramétrage du processus de réglage fin LoRA.
👍