본 논문은 대형 언어 모델(LLM)을 위한 다중 성격 생성을 연구합니다. 기존의 재훈련 방식의 높은 비용과 확장성 문제를 해결하고, 디코딩 시점 방법의 유연성 및 견고성 부족을 개선하기 위해, 디코딩 시점 조합 패러다임 하에서 새로운 MPG(Multi-Personality Generation) 프레임워크를 제안합니다. MPG는 희소한 다차원 모델이나 추가 훈련 없이 단일 차원 모델의 암묵적 밀도 비율을 활용하여 다중 성격을 유연하게 제어합니다. 효율적인 MPG 구현을 위해 Speculative Chunk-level based Rejection sampling (SCR)을 설계하여 청크 단위로 응답을 생성하고 슬라이딩 윈도우 내에서 추정된 임계값을 통해 병렬로 검증합니다. MBTI 성격 및 롤 플레잉 실험을 통해 MPG의 효과를 입증했으며, 최대 16%-18% 향상을 보였습니다.