Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

KAG-Thinker : pensée interactive et raisonnement approfondi dans les LLM via la génération augmentée des connaissances

Created by
  • Haebom

Auteur

Dalong Zhang, Jun Xu, Jun Zhou, Lei Liang, Lin Yuan, Ling Zhong, Mengshu Sun, Peilong Zhao, QiWei Wang, Xiaorui Wang, Xinkai Du, YangYang Hou, Yu Ao, ZhaoYang Wang, Zhengke Gui, ZhiYing Yi, Zhongpu Bo, Haofen Wang, Huajun Chen

Contour

KAG-Thinker est un modèle qui transforme le KAG existant en un cadre de réflexion interactive multi-tours et de raisonnement approfondi, basé sur un modèle de langage léger à grande échelle (LLM). Il construit un processus de réflexion structuré pour la résolution de problèmes complexes et améliore la cohérence logique et contextuelle du raisonnement lors des tâches de questions-réponses (Q&R) dans les bases de connaissances (BC) spécifiques à un domaine. Il suit la voie technologique de recherche et de raisonnement par formes logiques de KAG et décompose les questions complexes en sous-problèmes indépendamment résolubles (formes logiques) par décomposition en largeur. Chaque forme logique est exprimée sous deux formes équivalentes : langage naturel et fonctions logiques, et est classée en tâches de recherche de connaissances ou d'analyse d'inférence. Il modélise explicitement les dépendances et le passage de paramètres entre les tâches via l'interface de fonctions logiques. La fonction de recherche récupère les informations structurées et non structurées de premier niveau de l'unité de connaissance spécifiée, tandis que les fonctions mathématiques et d'inférence effectuent les tâches d'analyse d'inférence. Dans la tâche de sous-problème de récupération des connaissances, les sources de connaissances LLM et externes sont considérées comme des bases de connaissances équivalentes, et la source optimale est déterminée via le module de limite de connaissances à l'aide de mécanismes d'autorégulation tels que la correction de confiance et le raisonnement réflexif, et le module de résolution de profondeur est utilisé pour améliorer l'exhaustivité de l'acquisition des connaissances.

Takeaways, Limitations

Takeaways:
Nous présentons un cadre qui permet une réflexion interactive en plusieurs étapes et un raisonnement approfondi en utilisant un LLM léger.
Amélioration des performances des questions-réponses (Q&R) avec une cohérence logique et contextuelle améliorée.
Présentation d'un processus efficace de décomposition et de traitement pour les tâches de recherche de connaissances et d'analyse d'inférence.
Intégrer le LLM à des sources de connaissances externes pour améliorer l’exhaustivité de l’acquisition des connaissances.
Sélection de sources de connaissances optimales grâce à des mécanismes d'autorégulation.
Limitations:
Le document manque de résultats d’évaluation de performance spécifiques et d’informations sur les modèles à comparer.
Des analyses plus approfondies sont nécessaires sur l’efficacité et les limites de la décomposition en largeur pour résoudre des problèmes complexes .
Manque de description détaillée du fonctionnement et des performances spécifiques du module de limite de connaissances et du module de résolution de profondeur .
La vérification des performances de généralisation est nécessaire pour des questions de domaines et de complexité variés.
👍