Bài báo này trình bày một phương pháp tiếp cận mới, đồng thời giải quyết các truy vấn người dùng mơ hồ, thông tin mâu thuẫn và thông tin không chính xác phát sinh khi tận dụng Thế hệ Tăng cường Truy xuất (RAG) để nâng cao tính hiện thực của các tác nhân Mô hình Ngôn ngữ Quy mô Lớn (LLM). Không giống như các nghiên cứu trước đây giải quyết từng vấn đề riêng lẻ, bài báo này đề xuất một tập dữ liệu mới, RAMDocs, mô phỏng các tình huống thực tế có chứa sự mơ hồ, thông tin sai lệch và nhiễu. Sau đó, chúng tôi trình bày MADAM-RAG, một phương pháp tiếp cận đa tác nhân giúp giải quyết sự mơ hồ và loại bỏ thông tin sai lệch và nhiễu thông qua các cuộc thảo luận nhiều vòng giữa các tác nhân LLM. Kết quả thử nghiệm chứng minh rằng MADAM-RAG vượt trội đáng kể so với các mô hình cơ sở RAG hiện có trên các tập dữ liệu AmbigDocs và FaithEval, nhưng chứng minh rằng vẫn còn chỗ để cải thiện, đặc biệt là khi sự mất cân bằng giữa bằng chứng và thông tin sai lệch là nghiêm trọng.