Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Diffusion Blend: Inference-Time Multi-Preference Alignment for Diffusion Models

Created by
  • Haebom

저자

Min Cheng, Fatemeh Doudi, Dileep Kalathil, Mohammad Ghavamzadeh, Panganamala R. Kumar

개요

본 논문은 기존 강화학습 기반 확산 모델 미세조정 방식의 한계(단일 보상 함수 최대화, 고정된 KL 정규화, 사용자 선호도 다양성 고려 미흡)를 극복하기 위해, 추론 시점에서 사용자 지정 보상 함수의 선형 조합과 정규화를 통해 다양한 선호도에 맞춰 이미지를 생성하는 새로운 방법인 Diffusion Blend를 제안합니다. Diffusion Blend는 미세조정된 모델들과 연관된 역확산 과정을 혼합하는 방식으로, 다중 보상 정렬을 위한 DB-MPA와 KL 정규화 제어를 위한 DB-KLA 두 가지 알고리즘으로 구현됩니다. 실험 결과, Diffusion Blend는 기존 방식보다 성능이 우수하며, 개별 미세조정 모델의 성능에 근접하거나 능가하는 것을 보여줍니다.

시사점, 한계점

시사점:
추론 시점에서 사용자 선호도에 맞춰 확산 모델을 효율적으로 조정하는 새로운 방법 제시.
다양한 보상 함수와 KL 정규화 수준을 유연하게 조합하여 사용자 경험 개선 가능.
개별 미세조정 없이 다양한 선호도에 대응 가능하여 효율성 증대.
한계점:
제안된 알고리즘의 성능은 사용되는 기저 보상 함수의 질에 의존적일 수 있음.
높은 차원의 보상 함수 공간에서의 일반화 성능에 대한 추가적인 연구 필요.
다양한 유형의 확산 모델 및 보상 함수에 대한 적용 가능성 및 일반화 성능에 대한 추가적인 검증 필요.
👍