Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

¿Pueden los modelos de lenguaje grandes actuar como ensambladores para múltiples GNN?

Created by
  • Haebom

Autor

Hanqi Duan, Yao Cheng, Jianxiang Yu, Yao Liu, Xiang Li

Describir

Este artículo destaca que las redes neuronales de grafos (GNN), eficaces para aprender datos con estructura de grafos, carecen de la capacidad de comprender las propiedades semánticas de los atributos de nodos de texto enriquecido. Observamos que los modelos GNN existentes no logran un buen rendimiento consistente en diversos conjuntos de datos. Para abordar esto, proponemos el modelo LensGNN, que utiliza un modelo de lenguaje a gran escala (LLM) como un conjunto de múltiples GNN. LensGNN mapea las representaciones de múltiples GNN al mismo espacio, alinea los espacios entre las GNN y los LLM mediante el ajuste fino de LoRA e inyecta tokens de grafos e información textual en el LLM. Este conjunto de múltiples GNN aprovecha las fortalezas de los LLM para profundizar en la comprensión de la semántica textual y la información estructural de grafos. Los resultados experimentales demuestran que LensGNN supera a los modelos existentes. Esta investigación avanza en el aprendizaje de conjuntos de grafos de atributos de texto al proporcionar una solución robusta y superior para integrar información semántica y estructural. El código y los datos están disponibles en GitHub.

Takeaways, Limitations

Takeaways:
Presentamos un método novedoso para ensamblar efectivamente múltiples GNN utilizando LLM.
Mejora del rendimiento de GNN mediante la integración de información semántica del texto e información de estructura del gráfico.
Superar el Limitations de los modelos GNN existentes y lograr un rendimiento excelente
Contribuir al avance del aprendizaje de conjuntos de gráficos de atributos de texto.
Limitations:
Es necesario tener en cuenta el coste computacional y el consumo de recursos del LLM.
Es necesario verificar el rendimiento de generalización en varios tipos de conjuntos de datos gráficos.
Se necesita más investigación para optimizar los parámetros para el ajuste fino de LoRA.
Se necesitan más investigaciones sobre la dependencia de LLM específicos y la aplicabilidad de otros LLM.
👍