본 논문은 대규모 언어 모델(LLM) 기반의 새로운 에이전트 프레임워크를 제시한다. 이 프레임워크는 동적으로 진화하는 지식을 활용하여 질문을 반복적으로 개선하고 문맥적 증거를 필터링한다. 외부 소스와 내부 지식 캐시를 분리하여 내부 캐시를 점진적으로 업데이트함으로써 질문 생성과 증거 선택을 안내하는 것이 특징이다. 이러한 설계는 편향 강화 루프를 완화하고 동적이며 추적 가능한 검색 탐색 경로를 가능하게 하여 다양한 정보 탐색과 자율 에이전트 의사 결정을 통한 정확성 유지를 균형 있게 조절한다. 다양한 개방형 질문 답변 벤치마크, 특히 여러 소스의 정보 통합이 중요한 실제 시나리오를 반영하는 다단계 작업에서 평가되었으며, 명시적인 추론이나 계획 기능이 부족한 LLM의 취약성을 고려할 때 특히 중요하다. 결과는 제안된 시스템이 작업 난이도에 관계없이 단일 단계 기준 시스템보다 우수할 뿐만 아니라, 기존의 반복적 검색 방법과 비교하여 정확한 증거 기반 추론과 향상된 효율성을 통해 복잡한 작업에서 뚜렷한 이점을 보여줌을 나타낸다. 또한, 업데이트된 컨텍스트의 경쟁적 및 협력적 공유를 지원하여 다중 에이전트 확장을 가능하게 하며, 작업 난이도가 증가함에 따라 다중 에이전트 구성의 이점이 두드러진다. 수렴 단계의 수는 작업 난이도에 따라 증가하여 비용 효율적인 확장성을 시사한다.