TaxaDiffusion est un framework d'apprentissage pour modèles de diffusion. Il exploite les informations taxonomiques pour générer des images animales détaillées, avec une morphologie haute résolution et une identification individuelle précise. Contrairement aux méthodes existantes qui traitent chaque espèce comme une catégorie indépendante, TaxaDiffusion intègre les connaissances du domaine : de nombreuses espèces partagent de fortes similitudes visuelles, et les différences résident souvent dans de subtiles variations de forme, de motif et de couleur. Pour exploiter ces relations, TaxaDiffusion entraîne progressivement des modèles de diffusion conditionnelle à plusieurs niveaux taxonomiques, en commençant par les niveaux taxonomiques généraux tels que la classe et l'ordre, puis la famille et le genre, et enfin l'espèce. Cette stratégie d'apprentissage hiérarchique capture d'abord les caractéristiques morphologiques grossières partagées par les espèces ayant une ascendance commune, facilitant ainsi le transfert de connaissances avant d'affiner les différences entre espèces. Ainsi, TaxaDiffusion permet une génération précise, même avec des échantillons d'apprentissage limités par espèce. Des expériences approfondies sur trois jeux de données animales détaillées démontrent sa supériorité par rapport aux méthodes existantes, avec une excellente fidélité dans la génération d'images animales détaillées.