Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Exploiter LLM - Compréhension assistée des requêtes pour une récupération en direct - Génération augmentée

Created by
  • Haebom

Auteur

Guanting Dong, Xiaoxi Li, Yuyao Zhang, Mengjie Deng

Contour

Cet article aborde les défis auxquels sont confrontés les systèmes de génération augmentée de données (RAG) réels lors du traitement de requêtes utilisateur bruyantes, ambiguës et multi-intentions. Les RAG enrichissent les modèles de langage à grande échelle (LLM) avec des connaissances externes, mais les systèmes existants peinent à gérer des entrées aussi complexes, car ils sont généralement entraînés ou évalués sur des données plus propres. Dans cet article, nous présentons Omni-RAG, un nouveau framework conçu pour améliorer la robustesse et l'efficacité des systèmes RAG en contexte ouvert et réel. Omni-RAG prétraite les entrées utilisateur en exploitant la compréhension des requêtes assistée par LLM grâce à trois modules principaux : (1) compréhension et décomposition approfondies des requêtes, (2) récupération des connaissances sensible à l'intention, et (3) reclassement et génération. Omni-RAG vise à combler l'écart entre les capacités actuelles des RAG et les exigences des applications réelles mises en avant lors du défi SIGIR 2025 LiveRAG, en gérant de manière robuste les requêtes bruyantes et complexes.

Takeaways, Limitations

Takeaways:
Améliorer la robustesse et l'efficacité des systèmes RAG pour les requêtes complexes et bruyantes dans des environnements réels.
Présentation de l'efficacité du prétraitement grâce à la compréhension et à la décomposition des requêtes basées sur LLM.
Présentation d'une approche intégrée de divers modules (compréhension et décomposition approfondies des requêtes, récupération de connaissances consciente de l'intention, reclassement et génération).
Démontrer l'applicabilité à des applications du monde réel telles que le défi SIGIR 2025 LiveRAG.
Limitations:
Manque de résultats et d’analyses spécifiques sur l’évaluation des performances d’Omni-RAG.
Manque de discussion sur les performances et les limites spécifiques du LLM, du moteur de recherche et du modèle de reclassement utilisés.
Absence d’analyse des biais envers des domaines ou des langues spécifiques.
Manque d’évaluation de l’évolutivité et des performances de traitement en temps réel.
👍