본 논문은 다양한 영역에 배포되는 대규모 언어 모델(LLMs)의 성능을 자동으로 평가하는 과정에서의 어려움을 해결하기 위해, 기존의 정적이고 자원 집약적인 평가 방식의 한계를 극복하는 새로운 프레임워크인 \textsc{TestAgent}를 제시한다. \textsc{TestAgent}는 기존의 질의응답 벤치마크를 더 유연한 "전략-기준" 형식으로 확장한 \textbf{Benchmark+}와 상호작용 과정을 강화하여 다각적인 심층 분석을 가능하게 하는 \textbf{Assessment+}라는 두 가지 핵심 개념을 도입한다. 검색 증강 생성 및 강화 학습을 사용하여 자동 동적 벤치마크 생성 및 다양한 수직 영역에 대한 심층 평가를 가능하게 한다. 다양한 수직 영역 평가 구성 및 정적 벤치마크를 동적 형태로 변환하는 실험을 통해 \textsc{TestAgent}의 효과를 입증한다. 이는 도메인 적응형 동적 벤치마크 구축 및 탐색적 평가를 위한 새로운 방식을 제시한다.