Cet article souligne que les réseaux de neurones graphes (GNN), efficaces pour l'apprentissage de données structurées en graphes, ne parviennent pas à comprendre les propriétés sémantiques des attributs de nœuds de texte enrichi. Nous observons que les modèles GNN existants ne sont pas toujours performants sur divers ensembles de données. Pour remédier à ce problème, nous proposons le modèle LensGNN, qui utilise un modèle de langage à grande échelle (LLM) comme ensemble de plusieurs GNN. LensGNN mappe les représentations de plusieurs GNN dans le même espace, aligne les espaces entre les GNN et les LLM grâce à un réglage fin LoRA, et injecte des jetons de graphes et des informations textuelles dans le LLM. Cet ensemble de plusieurs GNN exploite les atouts des LLM pour approfondir la compréhension de la sémantique textuelle et des informations structurelles des graphes. Les résultats expérimentaux démontrent que LensGNN surpasse les modèles existants. Cette recherche fait progresser l'apprentissage d'ensembles de graphes d'attributs de texte en fournissant une solution robuste et performante pour l'intégration des informations sémantiques et structurelles. Le code et les données sont disponibles sur GitHub.