Bài báo này nhấn mạnh rằng các mạng nơ-ron đồ thị (GNN), vốn hiệu quả trong việc học dữ liệu có cấu trúc đồ thị, lại thiếu khả năng hiểu các đặc tính ngữ nghĩa của các thuộc tính nút văn bản phong phú. Chúng tôi nhận thấy rằng các mô hình GNN hiện có không hoạt động tốt một cách nhất quán trên các tập dữ liệu đa dạng. Để giải quyết vấn đề này, chúng tôi đề xuất mô hình LensGNN, sử dụng mô hình ngôn ngữ quy mô lớn (LLM) như một tập hợp nhiều GNN. LensGNN ánh xạ các biểu diễn của nhiều GNN vào cùng một không gian, căn chỉnh các không gian giữa các GNN và LLM thông qua tinh chỉnh LoRA và đưa các mã thông báo đồ thị và thông tin văn bản vào LLM. Tập hợp nhiều GNN này tận dụng các điểm mạnh của LLM để hiểu sâu hơn về ngữ nghĩa văn bản và thông tin cấu trúc đồ thị. Kết quả thực nghiệm chứng minh rằng LensGNN vượt trội hơn các mô hình hiện có. Nghiên cứu này thúc đẩy việc học tập tập hợp đồ thị thuộc tính văn bản bằng cách cung cấp một giải pháp mạnh mẽ và vượt trội để tích hợp thông tin ngữ nghĩa và cấu trúc. Mã và dữ liệu có sẵn trên GitHub.