Dans cet article, nous explorons comment exploiter les modèles génératifs pour pallier le manque de données annotées lors de l'entraînement de modèles de segmentation d'images médicales pour des modalités d'imagerie rares mais cliniquement importantes. En nous concentrant spécifiquement sur l'IRM, dépourvue d'annotations, nous présentons trois contributions majeures. Premièrement, nous présentons MRGen-DB, un jeu de données textuelles d'images radiologiques à grande échelle doté de métadonnées riches, notamment des libellés de modalités, des attributs, des régions et des informations sur les organes, ainsi qu'un sous-ensemble d'annotations de masques au niveau des pixels. Deuxièmement, nous présentons MRGen, un moteur de données basé sur la diffusion conditionné par des invites textuelles et des masques de segmentation. MRGen génère des images réalistes pour diverses modalités d'IRM dépourvues d'annotations de masques, facilitant ainsi l'entraînement à la segmentation dans les zones dépourvues de sources. Troisièmement, nous démontrons, par des expériences approfondies sur plusieurs modalités, que MRGen améliore significativement les performances de segmentation pour les modalités non annotées en fournissant des données synthétiques de haute qualité. Ce travail comble une lacune importante dans l'analyse d'images médicales en étendant les capacités de segmentation aux scénarios où les annotations manuelles sont difficiles à obtenir. Le code, les modèles et les données seront rendus publics.