Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

HERGC : Représentation d'experts hétérogènes et complétion générative pour graphes de connaissances multimodaux

Created by
  • Haebom

Auteur

Yongkang Xiao, Rui Zhang

Contour

Cet article propose HERGC, un nouveau cadre de complétion de graphes de connaissances multimodaux (MMKGC) qui exploite les modèles de langage à grande échelle (LLM) pour remédier à l'incomplétude des graphes de connaissances multimodaux (MMKG) intégrant diverses modalités (par exemple, images et texte). HERGC enrichit et fusionne les informations multimodales avec des chercheurs de représentations expertes hétérogènes afin de récupérer un ensemble de candidats pour chaque triplet incomplet, puis identifie avec précision la bonne réponse à l'aide d'un prédicteur LLM génératif implémenté par apprentissage contextuel ou par réglage fin léger. Des expériences approfondies sur trois benchmarks MMKG standard démontrent que HERGC surpasse les méthodes existantes.

Takeaways, Limitations_

Takeaways:
Une nouvelle approche pour utiliser efficacement le LLM au MMKGC
Amélioration des performances d'achèvement du MMKG par la fusion d'informations hétérogènes et l'utilisation de modèles génératifs.
Contribue à résoudre l'hypothèse du monde fermé et le problème de l'objectif d'apprentissage différentiel de la méthode MMKGC existante Limitations
Excellentes performances vérifiées dans divers benchmarks MMKG
Limitations:
Coûts de calcul élevés et consommation potentielle de ressources en raison de l'utilisation de LLM
Des recherches supplémentaires sont nécessaires sur l’explicabilité et la fiabilité du LLM.
Biais de performance potentiel pour des types spécifiques de MMKG ou de modalités
Peut dépendre des performances du LLM utilisé.
👍