Cet article propose LensGNN, un nouveau modèle exploitant un modèle de langage à grande échelle (LLM) pour relever le défi Limitations des réseaux de neurones graphes (GNN), qui se sont révélés être des modèles performants pour l'apprentissage de données structurées en graphes. Les GNN existants présentent des limites en raison de leur incapacité à comprendre la sémantique des attributs de nœuds de texte enrichi, et nous avons observé qu'un GNN spécifique ne fonctionne pas systématiquement bien sur divers ensembles de données. LensGNN aligne les représentations de plusieurs GNN en les mappant sur le même espace, puis aligne l'espace entre les GNN et les LLM grâce à un réglage fin LoRA. En injectant des jetons de graphe et des informations textuelles dans le LLM, plusieurs GNN sont regroupés et exploitent les atouts du LLM, permettant une compréhension plus approfondie de la sémantique du texte et de la structure du graphe. Les résultats expérimentaux démontrent que LensGNN surpasse les modèles existants, offrant une solution puissante et supérieure pour l'intégration des informations sémantiques et structurelles, faisant progresser l'apprentissage d'ensemble de graphes d'attributs de texte.