본 논문은 대규모 언어 모델(LLM) 기반 질의응답(QA) 에이전트의 발전을 조사합니다. 기존 에이전트는 상당한 데이터 요구 사항과 새로운 환경에 대한 일반화의 어려움을 포함한 상당한 한계에 직면합니다. LLM 기반 에이전트는 핵심 추론 엔진으로 LLM을 활용하여 이러한 과제를 해결합니다. 이러한 에이전트는 외부 환경과의 상호 작용을 가능하게 함으로써 기존 QA 파이프라인 및 단순한 LLM QA 시스템에 비해 우수한 QA 결과를 달성합니다. 본 논문에서는 계획, 질문 이해, 정보 검색 및 답변 생성과 같은 주요 단계를 거쳐 QA 작업의 맥락에서 LLM 에이전트의 설계를 체계적으로 검토합니다. 또한, 본 논문에서는 지속적인 과제를 파악하고 LLM 에이전트 QA 시스템의 성능을 향상시키기 위한 미래 연구 방향을 탐구합니다.