대규모 언어 모델(LLM)의 텍스트 생성 능력 발전에도 불구하고, 특정 속성을 제어하는 데 어려움이 있다. 기존 방법들은 단일 속성 제어에 머무르거나, 다중 속성 간의 충돌, 반복적인 최적화의 부재 등의 한계를 보인다. 본 논문은 이러한 한계를 해결하기 위해, Conflict-aware, Composite, and Collaborative Controlled Text Generation (C$^3$TG)이라는 두 단계 프레임워크를 제안한다. C$^3$TG는 속성 분류기를 LLM과 결합하여 텍스트를 생성하고, 가중된 KL 발산을 통해 토큰 확률을 조정한다. 또한, 에너지 함수를 활용한 반복적인 피드백을 통해 속성 간의 충돌을 해결하며, 자연스러운 텍스트 흐름을 유지하면서 여러 속성을 정밀하게 제어한다. 실험 결과, C$^3$TG는 여러 지표에서 기존 방법들을 능가하며, 유해성 감소 효과도 보였다.