신체화된 에이전트가 장기간 효과적으로 작동하기 위해 환경에 대한 컨텍스트를 유지하고 접근할 수 있는 메모리를 형성하는 모델 개발이 중요합니다. 본 연구에서는 메모리 집약적이고 장기간의 작업을 위한 강화 학습 (RL)을 위해 transformer 기반 아키텍처 및 학습 방법인 Memo를 제안합니다. Memo는 훈련 중에 모델의 입력과 주기적인 요약 토큰을 번갈아 가며 메모리를 생성하고 검색합니다. Memo는 그리드월드 메타 RL 벤치마크 및 사진처럼 현실적인 실내 환경에서의 다중 객체 탐색 작업에서 효과를 입증했으며, 단순한 장기 컨텍스트 transformer 기반보다 우수한 성능을 보입니다. 또한, Memo는 추론 시 더 긴 컨텍스트에 더 잘 일반화되고, 스트리밍 환경에서도 견고하게 유지됩니다.