본 논문은 대규모 언어 모델(LLM)이 특정 개인의 글쓰기 스타일과 개인적인 지식을 얼마나 잘 모방할 수 있는지 평가하는 IMPersona 프레임워크를 제시합니다. 감독 학습 미세 조정과 계층적 메모리 기반 검색 시스템을 사용하여 Llama-3.1-8B-Instruct와 같은 중간 규모의 오픈소스 모델도 우려할 만한 수준의 모방 능력을 달성할 수 있음을 보여줍니다. 실험 결과, 메모리 통합 기능이 추가된 미세 조정 모델은 참가자들로부터 인간으로 오인받은 비율이 44.44%에 달했으며, 이는 최고의 프롬프트 기반 접근 방식(25%)보다 훨씬 높은 수치입니다. 본 논문은 이러한 결과를 분석하여 모방 시도를 탐지하고 방어하는 방법을 제안하며, 개인화된 언어 모델의 잠재적 응용과 위험, 특히 프라이버시, 보안, 윤리적 배포 문제를 제기합니다.