Cet article présente une nouvelle approche qui traite simultanément les requêtes utilisateur ambiguës, les informations contradictoires et les informations inexactes qui surviennent lors de l'utilisation de la génération augmentée de récupération (RAG) pour améliorer le réalisme des agents du modèle linguistique à grande échelle (LLM). Contrairement aux études précédentes qui abordaient chaque problème individuellement, cet article propose un nouvel ensemble de données, RAMDocs, qui reproduit des scénarios réalistes contenant ambiguïté, désinformation et bruit. Nous présentons ensuite MADAM-RAG, une approche multi-agents qui résout l'ambiguïté et supprime la désinformation et le bruit grâce à des discussions à plusieurs tours entre les agents LLM. Les résultats expérimentaux démontrent que MADAM-RAG surpasse significativement les modèles de base RAG existants sur les ensembles de données AmbigDocs et FaithEval, mais démontrent qu'il existe encore une marge d'amélioration, en particulier lorsque le déséquilibre entre preuves et désinformation est important.