본 논문은 인간 이미지 생성의 현실감을 높이기 위해 Direct Preference Optimization (DPO) 기법을 개선한 HG-DPO (Human image Generation through DPO)를 제안합니다. 기존 DPO는 생성된 이미지를 기준으로 학습하여 현실감이 떨어지는 문제점을 가지고 있으나, HG-DPO는 고품질 실제 이미지를 기준으로 학습하여 현실감 있는 이미지 생성을 목표로 합니다. 이를 위해, 모델의 출력을 점진적으로 개선하는 새로운 curriculum learning 프레임워크를 도입하여 학습의 안정성을 높였으며, 특히 개인화된 텍스트-이미지 생성 작업에 효과적으로 적용될 수 있음을 보여줍니다.