Cet article aborde les défis auxquels sont confrontés les systèmes de génération augmentée de données (RAG) réels lors du traitement de requêtes utilisateur bruyantes, ambiguës et multi-intentions. Les RAG enrichissent les modèles de langage à grande échelle (LLM) avec des connaissances externes, mais les systèmes existants peinent à gérer des entrées aussi complexes, car ils sont généralement entraînés ou évalués sur des données plus propres. Dans cet article, nous présentons Omni-RAG, un nouveau framework conçu pour améliorer la robustesse et l'efficacité des systèmes RAG en contexte ouvert et réel. Omni-RAG prétraite les entrées utilisateur en exploitant la compréhension des requêtes assistée par LLM grâce à trois modules principaux : (1) compréhension et décomposition approfondies des requêtes, (2) récupération des connaissances sensible à l'intention, et (3) reclassement et génération. Omni-RAG vise à combler l'écart entre les capacités actuelles des RAG et les exigences des applications réelles mises en avant lors du défi SIGIR 2025 LiveRAG, en gérant de manière robuste les requêtes bruyantes et complexes.