Cet article présente la méthodologie et les résultats utilisés par l'équipe Deep Retrieval dans la sous-tâche 4b (récupération de la littérature scientifique pertinente sur les publications sur les réseaux sociaux) du concours CLEF CheckThat! 2025. Afin de permettre une récupération robuste qui comble le fossé entre langage informel et formel, nous proposons un pipeline de récupération hybride combinant précision lexicale, généralisation sémantique et reclassement contextuel approfondi. Plus précisément, nous combinons le stockage vectoriel FAISS avec un modèle INF-Retriever-v1 optimisé et une correspondance de mots-clés basée sur BM25 pour obtenir les 30 meilleurs candidats par BM25 et les 100 meilleurs candidats par récupération sémantique, qui sont ensuite fusionnés et reclassés par un encodeur croisé basé sur un modèle de langage à grande échelle (LLM). Nous obtenons un MRR de 76,46 % à 5 % sur l'ensemble de développement et de 66,43 % sur l'ensemble de tests cachés, nous classant ainsi premier au classement de développement et troisième au classement de tests (sur 31 équipes). Ces résultats ont été obtenus en exécutant des modèles open source localement, sans données d'entraînement externes, ce qui témoigne de l'efficacité d'un pipeline de récupération soigneusement conçu et optimisé.