Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

HIRAG : Instruction de pensée hiérarchique - Réglage de la récupération - Génération augmentée

Created by
  • Haebom

Auteur

YiHan Jiao, ZheHao Tan, Dan Yang, DuoLin Sun, Jie Feng, Yue Shen, Jian Wang, Peng Wei

Contour

Cet article traite de la génération augmentée de recherche (RAG), devenue un paradigme fondamental pour relever les défis rencontrés par les modèles linguistiques à grande échelle (LLM) dans le traitement de l'information en temps réel et des problèmes spécifiques à un domaine. Les systèmes RAG existants s'appuient principalement sur les capacités d'apprentissage en contexte (ICL) du LLM lui-même, mais les recherches approfondies sur les capacités spécifiques requises pour les modèles de génération RAG font défaut, ce qui entraîne une qualité de document inégale et des systèmes de recherche défaillants. Même les recherches limitées sur l'optimisation des modèles de génération RAG manquent d'une approche granulaire des tâches RAG ni d'une compréhension approfondie du processus de la chaîne de pensée. Pour y remédier, cet article propose que les modèles RAG possèdent trois capacités hiérarchisées progressivement : (1) filtrage : la capacité de sélectionner les informations pertinentes ; (2) combinaison : la capacité de combiner des informations sémantiques entre les paragraphes ; et (3) inférence spécifique au RAG : la capacité de traiter ultérieurement les connaissances externes à partir des connaissances internes. Nous présentons donc la génération augmentée de récupération ajustée dirigée par la pensée hiérarchique (HIRAG), une nouvelle méthode de réglage fin dirigée par la RAG qui intègre une stratégie de « réflexion avant réponse ». Cette méthode s'appuie sur une chaîne de pensée progressive en plusieurs étapes pour améliorer la testabilité du modèle à livre ouvert. Les résultats expérimentaux montrent que la stratégie d'entraînement HIRAG améliore significativement les performances du modèle sur des jeux de données tels que RGB, PopQA, MuSiQue, HotpotQA et PubmedQA.

Takeaways, Limitations

Takeaways:
Nous présentons l’importance d’un processus de réflexion hiérarchique (filtrage, combinaison et raisonnement spécifique au RAG) pour améliorer les performances des modèles RAG.
Nous proposons une nouvelle méthode de réglage fin RAG appelée HIRAG et démontrons expérimentalement son amélioration des performances sur divers ensembles de données.
Améliorer la capacité de test à livre ouvert du modèle grâce à la stratégie « réfléchir avant de répondre ».
Limitations:
Des recherches supplémentaires sont nécessaires sur les performances de généralisation de la méthode HIRAG proposée.
Une validation supplémentaire est nécessaire pour déterminer si les améliorations de performances d’un ensemble de données spécifique peuvent être appliquées à d’autres ensembles de données.
Augmentation potentielle des coûts de calcul en raison de la complexité du processus de la chaîne d’accident.
👍