본 논문은 대규모 언어 모델(LLM) 기반 에이전트의 메모리 관리 전략이 장기적인 성능에 미치는 영향을 실험적으로 연구합니다. 특히, 메모리에 새로운 경험을 추가하는 '추가'와 과거 경험을 선택적으로 제거하는 '삭제' 연산에 초점을 맞춰, LLM 에이전트의 행동, 특히 장기적인 성능에 대한 영향을 체계적으로 분석합니다. 분석 결과, LLM 에이전트는 과거 경험과 유사한 입력에 대해 유사한 출력을 생성하는 '경험 추종' 특성을 보이는데, 이는 과거의 부정확한 경험이 누적되어 성능 저하를 야기하는 '오류 전파'와 쓸모없는 과거 경험이 현재 작업에 부정적인 영향을 미치는 '잘못된 경험 재생' 문제를 초래합니다. 선택적인 추가 및 삭제 전략을 결합하면 이러한 부정적 영향을 완화하여 성능을 평균 10% 향상시킬 수 있음을 실험을 통해 보여줍니다. 또한, 작업 분포 변화 및 제한된 메모리 자원과 같은 어려운 조건에서 메모리 관리 선택이 에이전트의 행동에 미치는 영향을 강조하며, 코드 공개를 통해 후속 연구를 지원합니다.