Cet article propose un nouveau pipeline de transfert de style 3D qui exploite les connaissances issues de modèles de diffusion 2D pré-entraînés pour relever les défis des méthodes de transfert de style 3D existantes. Ces dernières peinent à extraire et à transférer efficacement la sémantique de style en haute dimension et souffrent d'une ambiguïté structurelle dans l'application de style résultante, rendant l'identification des objets difficile. Ce pipeline se compose de deux étapes : la génération de rendus stylisés des points de vue dominants, puis leur transfert vers des représentations 3D. Plus précisément, l'alignement des styles entre vues permet des interactions entre les caractéristiques de plusieurs points de vue dominants, et le transfert de style au niveau de l'instance transfère efficacement la cohérence entre les points de vue dominants stylisés vers la représentation 3D, ce qui produit des résultats de stylisation structurellement et visuellement cohérents. Les résultats expérimentaux sur différentes scènes démontrent que la méthode proposée surpasse les méthodes de pointe existantes.