Cette page résume et organise les publications en intelligence artificielle du monde entier. Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif. Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.
Transfert de style de portrait généralisable de domaine
Created by
Haebom
Auteur
Xinbo Wang, Wenju Xu, Qing Zhang, Wei-Shi Zheng
Contour
Cet article présente une méthode de transfert de style de portrait généralisable à divers domaines et permettant un transfert de style de haute qualité, aligné sémantiquement, pour des zones telles que les cheveux, les yeux, les cils, la peau, les lèvres et l'arrière-plan. À cette fin, nous obtenons une référence déformée, alignée sémantiquement avec l'entrée, en établissant une correspondance sémantique dense entre une entrée donnée et un portrait de référence, basée sur un modèle pré-entraîné et un adaptateur sémantique. Pour garantir un transfert de style efficace et contrôlable, nous avons conçu la transformée en ondelettes AdaIN qui équilibre la préservation du contenu et le transfert de style en mélangeant les informations basse fréquence de la référence déformée avec les informations haute fréquence de l'entrée dans l'espace latent. Nous avons également conçu un adaptateur de style qui fournit des indications de style à partir de la référence déformée. À partir de l'espace latent stylisé obtenu par la transformée en ondelettes AdaIN, nous générons le résultat final à l'aide d'un modèle de diffusion biconditionnelle intégrant ControlNet, lequel enregistre les informations haute fréquence et les indications de style. Nous démontrons la supériorité de la méthode proposée par des expériences approfondies. Le code et les modèles formés sont disponibles sur https://github.com/wangxb29/DGPST .