본 논문은 장기간 대화에서 일관성 있고 개인화된 경험을 제공하기 위한 기존의 메모리 기반 응답 생성 방식(turn-level, session-level, summarization)의 한계를 지적합니다. 턴 단위, 세션 단위, 요약 기반 메모리 단위의 크기가 메모리 검색 정확도와 검색된 콘텐츠의 의미적 품질에 영향을 미친다는 것을 밝히고, LLMLingua-2와 같은 프롬프트 압축 방법이 다양한 크기의 메모리 단위에서 메모리 검색 정확도를 향상시키는 데 효과적임을 보여줍니다. 이러한 통찰력을 바탕으로, 논문에서는 장기간 대화를 주제별로 일관된 세그먼트로 분할하는 대화 세분화 모델을 도입하고, 메모리 단위에 압축 기반 잡음 제거를 적용하여 세그먼트 수준에서 메모리 뱅크를 구성하는 SeCom 방법을 제안합니다. 실험 결과, SeCom은 LOCOMO 및 Long-MT-Bench+와 같은 장기간 대화 벤치마크에서 기존 방법보다 성능이 뛰어나며, 제안된 대화 세분화 방법은 DialSeg711, TIAGE 및 SuperDialSeg와 같은 대화 세분화 데이터셋에서도 우수한 성능을 보입니다.