Cet article aborde les limites des modèles de recherche générative augmentée, qui offrent des performances robustes dans les tâches à forte intensité de connaissances, où la pertinence requête-document peut être identifiée par correspondance lexicale ou sémantique directe. Les systèmes de recherche existants peinent à capturer de nombreuses requêtes réelles impliquant un raisonnement abstrait, une pensée analogique ou un raisonnement en plusieurs étapes. Pour relever ce défi, nous présentons DIVER , un pipeline de recherche conçu pour la recherche d'informations à forte intensité d'inférence . DIVER se compose de quatre éléments : le traitement des documents pour améliorer la qualité des entrées, l'expansion des requêtes basée sur le LLM via une interaction itérative avec les documents, un moteur de recherche optimisé par inférence et optimisé sur des données multidomaines synthétiques utilisant des négatifs durs, et un reranker point par point qui combine les scores d'utilité attribués par le LLM avec les scores de recherche. Sur le benchmark BRIGHT, DIVER surpasse systématiquement les modèles concurrents prenant en compte l'inférence, obtenant des scores nDCG@10 de pointe de 41,6 et 28,9 pour la requête initiale. Ces résultats démontrent l'efficacité des stratégies de récupération basées sur l'inférence pour des tâches complexes du monde réel. Le code et le modèle de récupération seront prochainement rendus publics.