본 논문은 문서 번역에서 일관성과 정확성을 유지하는 데 어려움을 겪는 기존 대규모 언어 모델(LLM) 기반 기계 번역(MT) 연구의 한계를 극복하기 위해, 다중 레벨 메모리 구조를 갖춘 문서 수준 번역 에이전트 DelTA를 제안한다. DelTA는 고유 명사 기록, 이중 언어 요약, 장기 메모리, 단기 메모리 등 다양한 수준의 정보를 저장하고 보조 LLM 기반 구성 요소를 통해 지속적으로 검색 및 업데이트한다. 문장 단위 번역 전략을 사용하여 문장 누락을 방지하고 메모리 효율성을 높이며, 네 개의 오픈/클로즈 소스 LLM과 두 개의 대표적인 문서 번역 데이터셋을 사용한 실험 결과, 일관성 점수를 최대 4.58%p, COMET 점수를 평균 최대 3.16점 향상시키는 것으로 나타났다. 또한 대명사 및 맥락 의존적 번역 정확도를 향상시키며, 요약 구성 요소는 질의 기반 요약 작업에도 유용함을 보였다. 코드와 데이터는 깃허브에 공개되었다.