본 논문은 대규모 언어 모델(LLM)의 개인화를 위한 새로운 디코딩 시점 접근 방식인 CoPe (Contrasting Personal Preference)를 제안합니다. CoPe는 사용자의 특정 데이터를 기반으로 파라미터 효율적 미세 조정(PEFT)을 수행한 후, 각 사용자의 암묵적 보상 신호를 최대화하여 개인화를 위한 보상 기반 디코딩을 활용합니다. 이 방법은 외부 보상 모델이나 추가 훈련 없이도 다섯 가지 개방형 개인화 텍스트 생성 작업에서 ROUGE-L 기준으로 평균 10.57%의 개인화 성능 향상을 달성했습니다.