본 논문은 대규모 언어 모델(LLM) 기반의 새로운 에이전트 프레임워크를 제시한다. 이 프레임워크는 동적으로 진화하는 지식을 활용하여 반복적으로 질의를 개선하고 문맥적 증거를 필터링한다. 외부 소스와 내부 지식 캐시를 분리하여 내부 캐시를 점진적으로 업데이트함으로써 질의 생성과 증거 선택 모두를 안내하는 것이 특징이다. 이러한 설계는 편향 강화 루프를 완화하고 동적이며 추적 가능한 검색 탐색 경로를 가능하게 하여 다양한 정보 탐색과 자율 에이전트 의사 결정을 통한 정확성 유지를 최적화한다. 다양한 개방형 질의응답 벤치마크에서 평가되었으며, 특히 여러 소스의 정보 통합이 중요한 실제 시나리오를 반영하는 다단계 작업에서 LLM의 명시적 추론이나 계획 능력 부족의 취약성을 고려하여 평가되었다. 결과적으로 제안된 시스템은 작업 난이도에 관계없이 단일 단계 기준 모델보다 성능이 우수하며, 기존의 반복적 검색 방법과 비교하여 복잡한 작업에서 정확한 증거 기반 추론과 향상된 효율성을 통해 현저한 이점을 보였다. 또한, 업데이트된 컨텍스트의 경쟁적 및 협력적 공유를 지원하여 다중 에이전트 확장을 가능하게 하며, 다중 에이전트 구성의 이점은 작업 난이도가 높아짐에 따라 특히 두드러진다. 수렴 단계의 수는 작업 난이도에 따라 달라지므로 비용 효율적인 확장성을 시사한다.