Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

RAG-R1 : Stimuler les capacités de recherche et de raisonnement des LLM grâce au parallélisme multi-requêtes

Created by
  • Haebom

Auteur

Zhiwen Tan, Jiaming Huang, Qintong Wu, Hongxuan Zhang, Chenyi Zhuang, Jinjie Gu

Contour

Pour pallier les limites des modèles linguistiques à grande échelle (LLM), qui ont tendance à générer des hallucinations ou des réponses obsolètes en raison de connaissances internes statiques, cet article propose une méthode de génération augmentée de récupération (RAG) basée sur l'apprentissage par renforcement (RL) pour améliorer les capacités de récupération et d'inférence du modèle. Pour pallier les limites des méthodes RAG existantes, notamment l'instabilité de l'apprentissage, le temps d'inférence important et les fonctionnalités limitées dues au mode requête unique, nous présentons RAG-R1, un nouveau cadre d'apprentissage conçu pour permettre aux LLM d'utiliser de manière adaptative les connaissances internes et externes pendant le processus d'inférence. RAG-R1 étend les processus de génération et de récupération du mode requête unique au traitement parallèle multi-requêtes, réduisant ainsi le temps d'inférence et améliorant les fonctionnalités du modèle. Des expériences approfondies sur sept benchmarks de questions-réponses démontrent que la méthode proposée surpasse le modèle de référence le plus performant jusqu'à 13,2 % et réduit le temps d'inférence de 11,1 %.

Takeaways, Limitations

Takeaways:
Une méthode efficace pour réduire le temps d’inférence du LLM basé sur RAG est présentée.
Nous démontrons que les performances de LLM peuvent être améliorées en utilisant un traitement parallèle multi-requêtes.
Validation de l'efficacité d'un nouveau cadre de formation, RAG-R1, qui exploite de manière adaptative les connaissances internes et externes.
Surmonter le Limitations de la méthode RAG existante et obtenir une amélioration des performances.
Limitations:
L’amélioration des performances de la méthode proposée peut être limitée à des tests de réponse à des questions spécifiques.
Des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité des différents types de méthodes LLM et RAG.
L'efficacité du traitement parallèle multi-requêtes peut dépendre des ressources matérielles.
Une analyse plus approfondie de la stabilité de la formation et des performances de généralisation du RAG-R1 est nécessaire.
👍