본 논문은 대화의 일관성을 유지하면서 사용자 특징 정보에 적응하는 데 어려움을 겪는 대규모 언어 모델(LLM)의 문제점을 다룹니다. 모델의 내부 이해와 일관성 있고 개인화된 대화에 필요한 지식 간의 차이를 'persona knowledge gap'으로 정의하고, 이를 해결하기 위한 새로운 프레임워크인 Conversation Preference Elicitation and Recommendation (CPER)을 제시합니다. CPER은 문맥 이해 모듈, 동적 피드백 모듈, Persona 기반 응답 생성 모듈의 세 가지 모듈로 구성되어 있으며, 내재적 불확실성 정량화 및 피드백 기반 개선을 통해 persona knowledge gap을 동적으로 감지하고 해결합니다. CCPE-M(영화 추천) 및 ESConv(정신 건강 지원) 두 개의 실제 데이터셋을 사용하여 평가한 결과, A/B 테스트에서 기준 모델보다 CPER의 응답을 선호하는 비율이 CCPE-M에서 42%, ESConv에서 27% 더 높았습니다. 특히 12턴 이상의 긴 대화에서 문맥적 관련성과 일관성 유지를 위해 CPER의 응답을 선호하는 것으로 나타났습니다.