본 논문은 대규모 언어 모델(LLM) 기반 챗봇의 지속적인 확산에 따라, 언어적으로 유창할 뿐만 아니라 대화에서 인물 고유의 특성과 일관되게 부합하는 응답을 생성하는 것에 대한 수요가 증가하고 있음을 지적합니다. 기존의 역할극 및 인물 기반 챗 접근 방식은 정적인 역할 설명, 조잡한 신호 공간 및 저품질 합성 데이터에 크게 의존하여 사람과 같은 대화에서 역동적이고 세밀한 부분을 포착하지 못한다는 한계를 가지고 있습니다. 사람과 같은 대화는 감정적 어조, 상황 인식 및 진화하는 성격과 같은 미묘한 잠재적 특성을 모델링하는 것을 필요로 하며, 이는 미리 정의하기 어렵고 합성 데이터나 증류 기반 데이터로부터 쉽게 학습할 수 없습니다. 이러한 한계를 해결하기 위해 본 논문은 대화 스타일, 상호 작용 패턴 및 개인적 속성에 걸쳐 세분화되고 해석 가능한 잠재 변수를 기반으로 대화 행동을 동적으로 조정하는 변분 자동 인코딩 모듈과 세분화된 제어 공간을 포함하는 Verbal Variational Auto-Encoding (V-VAE) 프레임워크를 제안합니다. 또한, 사람과 같은 도메인에서 고품질 데이터의 부족 문제를 해결하기 위해 고품질 데이터셋인 HumanChatData와 HumanChatBench 벤치마크를 구축했습니다. 실험 결과, V-VAE 기반 LLM이 HumanChatBench 및 DialogBench에서 표준 기준 모델보다 일관되게 우수한 성능을 보여 V-VAE와 HumanChatData의 효과를 입증했습니다.