대규모 언어 모델(LLM)이 동적이고 복잡한 환경에서 과거 상호 작용 정보를 효과적으로 활용하는 데 어려움을 겪는 문제를 해결하기 위해, 메모리 시스템 LightMem을 제안합니다. LightMem은 인간 기억의 Atkinson-Shiffrin 모델에서 영감을 받아, 인지 기반 감각 기억, 주제 인식 단기 기억, 수면 시간 업데이트가 있는 장기 기억의 세 단계로 메모리를 구성합니다. GPT 및 Qwen 백본을 사용하여 LongMemEval 및 LoCoMo에서 테스트한 결과, LightMem은 강력한 기반 모델을 능가하며, QA 정확도를 최대 7.7% / 29.3% 향상시키고, 총 토큰 사용량과 API 호출 수를 대폭 줄였습니다.