본 논문은 사전 훈련된 텍스트-이미지 확산 모델에서 여러 연속 속성(예: 눈의 개방 정도, 자동차의 너비)을 동시에 정밀하게 제어하는 새로운 방법인 Attribute (Att) Adapter를 제안합니다. Att-Adapter는 비쌍으로 된 샘플 이미지 집합으로부터 단일 제어 어댑터를 학습하며, 분리된 크로스 어텐션 모듈을 활용하여 여러 도메인 속성과 텍스트 조건을 조화시킵니다. 과적합을 완화하기 위해 Conditional Variational Autoencoder (CVAE)를 추가로 도입하여 다양한 시각적 세계의 특성을 반영합니다. 실험 결과, Att-Adapter는 기존 LoRA 기반 방법들을 능가하며, 더 넓은 제어 범위와 향상된 속성 분리 성능을 보여줍니다. 또한, 쌍으로 된 합성 데이터 없이 훈련 가능하고, 여러 속성에 대한 확장성이 뛰어난 장점이 있습니다.