Este artículo presenta ASearcher, un proyecto de código abierto para mejorar las capacidades de búsqueda de agentes basados en modelos de lenguaje a gran escala (LLM). Los agentes LLM existentes dependen en gran medida de herramientas externas, en particular de herramientas de búsqueda, para gestionar tareas complejas. Sin embargo, no logran la inteligencia de búsqueda de nivel experto (p. ej., resolver preguntas ambiguas, generar respuestas precisas, analizar resultados y realizar una exploración exhaustiva). Para superar estas limitaciones, ASearcher presenta un marco de entrenamiento escalable y eficiente basado en aprendizaje de refuerzo asíncrono (RL). El agente LLM genera su propio conjunto de datos de preguntas y respuestas (QA) de alta calidad y puede realizar búsquedas a largo plazo (más de 40 turnos, con más de 15 000 tokens de salida). Los resultados experimentales demuestran que supera a los agentes 32 000 millones de código abierto existentes en los benchmarks xBench y GAIA. El modelo, los datos de entrenamiento y el código están disponibles públicamente.