본 논문은 텍스트-이미지 생성의 제어 가능성을 향상시키기 위한 새로운 방법인 Condition Preference Optimization (CPO)를 제안합니다. CPO는 생성된 이미지 대신 제어 신호에 대한 선호 학습을 수행하여, 이미지 품질과 같은 다른 요소를 고정하면서 제어 가능성에만 집중할 수 있도록 합니다. 이는 기존 방법인 Direct Preference Optimization (DPO)의 한계를 극복하고, 낮은 분산의 학습 목표를 달성하며, 계산 및 데이터셋 구축 비용을 줄입니다. 실험 결과, CPO는 ControlNet++보다 여러 제어 유형에서 더 나은 성능을 보였습니다.