Cet article présente ASearcher, un projet open source visant à améliorer les capacités de recherche des agents basés sur des modèles de langage à grande échelle (LLM). Si les agents LLM existants excellent dans la gestion de tâches complexes et gourmandes en connaissances, ils ne parviennent pas à fournir une intelligence de recherche de niveau expert (par exemple, résoudre des questions ambiguës, générer des recherches précises, analyser les résultats et explorer en profondeur). Pour surmonter ces limitations, ASearcher propose un cadre d'apprentissage par renforcement asynchrone, évolutif et efficace. Plus précisément, ASearcher surpasse les agents open source existants sur les benchmarks xBench et GAIA grâce à un apprentissage par renforcement asynchrone (RL) évolutif qui permet une recherche à long terme et à un agent LLM basé sur des invites qui génère automatiquement un jeu de données de questions-réponses (QA) de haute qualité. Il démontre également des capacités de recherche à long terme exceptionnelles, avec des appels d'outils dépassant 40 tours et des sorties dépassant 150 000 jetons. Le modèle, les données d'apprentissage et le code sont accessibles au public.