Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

KCR : Résoudre les conflits de connaissances à long contexte grâce au raisonnement dans les LLM

Created by
  • Haebom

Auteur

Xianda Zheng, Zijian Huang, Meng-Fen Chiang, Michael J. Witbrock, Kaiqi Zhao

Contour

Cet article propose un cadre de raisonnement sur les conflits de connaissances (RCC) pour résoudre le problème des modèles linguistiques à grande échelle (MLL) qui peinent à résoudre des conflits de connaissances provenant de sources multiples, notamment les conflits de connaissances entre contextes conflictuels dans des textes longs. Le RCC s'appuie sur l'apprentissage par renforcement pour entraîner les LLM à sélectionner et à adhérer à des contextes présentant une cohérence logique plus forte face à des contextes conflictuels. Tout d'abord, il extrait des chemins d'inférence, exprimés sous forme de texte ou de graphes de connaissances locaux, à partir de contextes de textes longs conflictuels. Sur la base de ces chemins, le modèle est entraîné à suivre le bon chemin d'inférence, améliorant ainsi sa capacité à résoudre les conflits de connaissances dans des contextes de textes longs. Les résultats expérimentaux démontrent que le cadre proposé améliore significativement les capacités de résolution de conflits de connaissances de divers LLM.

Takeaways, Limitations_

Takeaways:
Contribue à améliorer la capacité du LLM à traiter des contextes longs.
Il présente une nouvelle approche du traitement des informations contradictoires.
Améliorez efficacement la capacité de raisonnement des LLM en utilisant l'apprentissage par renforcement.
Fournit un cadre général applicable à une variété de LLM.
Limitations:
Les performances du cadre proposé peuvent dépendre de l’algorithme d’apprentissage par renforcement et de la fonction de récompense utilisés.
La précision du processus d’extraction du chemin d’inférence peut affecter les performances globales.
Cela peut n’être efficace que pour certains types de conflits de connaissances.
Les performances peuvent varier en fonction de la qualité et de la quantité des données d’entraînement.
👍