본 논문은 개인의 선호도와 의견에 맞춰 대규모 언어 모델(LLM)의 출력을 조정하는 LLM 개인화에 대한 연구를 수행한다. 효과적인 개인화의 원동력을 체계적으로 이해할 수 있는 통합된 이론적 틀이 부족하다는 점을 인식하고, 인지적 이중 기억 모델을 LLM 개인화에 통합한다. 구체적으로, 일화 기억을 과거 사용자 참여에, 의미 기억을 장기적인 사용자 신념에 매핑하여 PRIME이라는 통합 프레임워크를 제시한다. 또한 느린 사고 전략에서 영감을 얻은 개인화된 사고 능력을 추가한다. 긴 컨텍스트 개인화를 평가하기 위해 Reddit의 Change My View (CMV)를 사용하여 특별히 설계된 데이터 세트를 도입한다. 광범위한 실험을 통해 PRIME의 효과를 검증하고, 단순한 인기 편향을 넘어 동적 개인화를 효과적으로 포착함을 확인한다.