Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

La pensée inversée guidée par l'ontologie renforce les grands modèles de langage pour répondre aux questions du graphe de connaissances.

Created by
  • Haebom

Auteur

Runxuan Liu, Bei Luo, Jiaqi Li, Baoxin Wang, Ming Liu, Dayong Wu, Shijin Wang, Bing Qin

Contour

Cet article propose la pensée inversée guidée par l'ontologie (ORT), un nouveau cadre pour améliorer les performances des réponses aux questions de graphes de connaissances (QQC) sur les modèles de langage à grande échelle (MLH). Pour résoudre le problème que posent les méthodes QQC existantes, qui reposent sur la correspondance entre vecteurs d'entités et peinent à répondre aux questions nécessitant une inférence en plusieurs étapes, nous proposons ORT, qui construit un chemin d'inférence d'un objectif à une condition, inspiré du raisonnement inverse humain. ORT se compose de trois étapes : extraire les étiquettes d'objectif et de condition à l'aide des LMH, générer un chemin d'inférence d'étiquettes basé sur l'ontologie du graphe de connaissances, et récupérer les connaissances à l'aide de ce chemin d'inférence d'étiquettes. Les résultats expérimentaux sur les jeux de données WebQSP et CWQ démontrent qu'ORT atteint des performances de pointe et améliore considérablement les capacités QQC des LMH.

Takeaways, Limitations

Takeaways:
Une nouvelle approche pour résoudre les problèmes d'inférence en plusieurs étapes dans le KGQA basé sur LLM.
Réduisez la perte d’informations et la redondance en utilisant des méthodes d’inférence inverse.
Améliorez la précision en générant des chemins d’inférence basés sur l’ontologie.
Atteindre des performances de pointe sur les ensembles de données WebQSP et CWQ.
Limitations:
Des recherches supplémentaires sont nécessaires pour déterminer la généralité du cadre ORT proposé et son applicabilité à d’autres graphes de connaissances ou types de questions.
ÉTant donné que cela dépend des performances du LLM, les limitations du LLM peuvent affecter les performances de l'ORT.
Il est nécessaire d'évaluer les performances de traitement pour les questions complexes ou ambiguës
👍