Bài báo này giới thiệu ASearcher, một dự án nguồn mở nhằm nâng cao khả năng tìm kiếm của các tác nhân dựa trên mô hình ngôn ngữ quy mô lớn (LLM). Mặc dù các tác nhân dựa trên LLM hiện có vượt trội trong việc xử lý các tác vụ phức tạp, đòi hỏi nhiều kiến thức, nhưng chúng lại thiếu khả năng tìm kiếm thông minh ở cấp độ chuyên gia (ví dụ: giải quyết các câu hỏi mơ hồ, tạo ra các kết quả truy xuất chính xác, phân tích kết quả và khám phá toàn diện). Để khắc phục những hạn chế này, ASearcher trình bày một khuôn khổ đào tạo dựa trên học tăng cường không đồng bộ, có khả năng mở rộng và hiệu quả. Cụ thể, ASearcher vượt trội hơn các tác nhân nguồn mở hiện có trên các chuẩn mực xBench và GAIA thông qua đào tạo học tăng cường không đồng bộ (RL) có khả năng mở rộng, cho phép tìm kiếm tầm nhìn dài hạn và một tác nhân LLM dựa trên lời nhắc, tự động tạo ra một tập dữ liệu trả lời câu hỏi (QA) chất lượng cao. Nó cũng chứng minh khả năng tìm kiếm cực kỳ dài hạn, với các lệnh gọi công cụ vượt quá 40 lượt và đầu ra vượt quá 150.000 mã thông báo. Mô hình, dữ liệu đào tạo và mã được công khai.