Cet article propose deux nouvelles approches pour relever le défi Limitations de la génération augmentée de recherche (RAG), une méthode qui suscite l'intérêt en tant que méthode d'intégration d'informations de pointe dans des modèles de langage à grande échelle (LLM) ou de construction de modèles spécifiques à un domaine. La RAG utilise plusieurs modèles d'intégration, mais leurs caractéristiques hétérogènes entraînent des divergences dans les résultats des calculs de similarité et la qualité des réponses LLM. Pour résoudre ce problème, nous proposons la RAG à intégration mixte et la RAG confiante. La RAG à intégration mixte intègre les résultats de recherche de plusieurs modèles d'intégration, mais n'améliore pas les performances par rapport à la RAG conventionnelle. En revanche, la RAG confiante génère des réponses plusieurs fois à l'aide de plusieurs modèles d'intégration et sélectionne la réponse avec la confiance la plus élevée. Cette approche améliore les performances d'environ 10 % et 5 % par rapport aux LLM et RAG conventionnels, respectivement. Des résultats cohérents dans divers LLM et modèles d'intégration démontrent que Confident RAG est une approche plug-and-play efficace applicable à un large éventail de domaines.